Current CheckIn
This commit is contained in:
parent
b4d29ff1b5
commit
c5eec92cda
4 changed files with 12 additions and 8 deletions
|
@ -14,12 +14,9 @@ Diese Umfrage ist Teil der Bachelorarbeit >>Analyse und Optimierung der Webseite
|
|||
Galster, die Rahmen des Projektes >>Edition der Korrespondenz Frank Wedekinds als Online"=Volltextdatenbank<< an der
|
||||
Fernuni Hagen durchgeführt wird. In der Bachelorarbeit soll der aktuelle Prototyp auf Performance"=Probleme untersucht
|
||||
und im Anschluss optimiert werden, um die Benutzerfreundlichkeit und die Akzeptanz der Anwendung zu verbessern.
|
||||
Dies soll dazu führen, dass die digitalen Briefeditionen verstärkt bei der Forschung zur literarhistorischen und
|
||||
kulturgeschichtlichen Wissenssteigerung eingesetzt werden.
|
||||
Dies würde dazu beitragen, die digitalen Briefeditionen zu verbessern und deren Akzeptanz in der Forschung zur
|
||||
literarhistorischen und kulturgeschichtlichen Wissenssteigerung zu steigern.
|
||||
|
||||
\mytodos{der letzte Satz nochmal überarbeiten!}
|
||||
|
||||
% helfen das die FOrschung mithilfe solcher datenbank vorrangetrieben wird und somit die foschung an briefedition das Wissen über die Kultur erweitert
|
||||
\hfill
|
||||
|
||||
Der aktuelle Prototyp der Anwendung wird unter \href{https://briefedition.wedekind.h-da.de} bereitgestellt. Die Fragen
|
||||
|
|
|
@ -6,6 +6,7 @@
|
|||
\chapter{Zeitmessung der Webseite}
|
||||
\label{ap:timing}
|
||||
|
||||
Mit dem nachfolgenden Skript werden die wichtigsten URL hinterlegt und jeweils mehrfach ausgeführt. Hierbei ist
|
||||
Mit dem nachfolgenden Skript werden die hinterlegten URLs mehrfach ausgeführt. Jeder Aufruf wird gemessen und pro URL
|
||||
die kürzeste, die längste, die durchschnittliche Laufzeit und die Standardabweichung ausgegeben.
|
||||
|
||||
\includecode[Bash]{chapters/thesis/appendix02_timing.sh}{lst:timing}{Zeitmessung}
|
||||
|
|
|
@ -6,7 +6,7 @@ set -euo pipefail
|
|||
|
||||
main() {
|
||||
{
|
||||
echo -e "URL\tRuns\tMin (ms)\tAvg (ms)\tMax (ms)"
|
||||
echo -e "URL\tRuns\tStDev\tMin (ms)\tAvg (ms)\tMax (ms)"
|
||||
for url in ${@:2}; do
|
||||
get_statistics $url $1
|
||||
done
|
||||
|
@ -18,6 +18,7 @@ get_statistics() {
|
|||
local min=1000000000
|
||||
local max=0
|
||||
local dur=0
|
||||
local durQ=0
|
||||
|
||||
# repeat for the defined counts the url calling
|
||||
for i in $(seq 1 $2); do
|
||||
|
@ -29,10 +30,15 @@ get_statistics() {
|
|||
then min=$gp
|
||||
fi
|
||||
dur=$(( $dur + $gp ))
|
||||
durQ=$(( $durQ + $(($gp * $gp)) ))
|
||||
done
|
||||
|
||||
local avg=$(($dur/$2))
|
||||
local avgPow=$(($avg * $avg))
|
||||
local stdev=$( echo "sqrt(($durQ / $2) - $avgPow)" | bc )
|
||||
|
||||
# output the statistic values
|
||||
echo -e "$1\t$2\t$min\t$(($dur/$2))\t$max"
|
||||
echo -e "$1\t$2\t$stdev\t$min\t$avg\t$max"
|
||||
}
|
||||
|
||||
get_posts() {
|
||||
|
|
BIN
thesis.pdf
BIN
thesis.pdf
Binary file not shown.
Loading…
Reference in a new issue