Current CheckIn

This commit is contained in:
marcodn 2024-04-18 20:20:16 +02:00
parent b4d29ff1b5
commit c5eec92cda
4 changed files with 12 additions and 8 deletions

View file

@ -14,12 +14,9 @@ Diese Umfrage ist Teil der Bachelorarbeit >>Analyse und Optimierung der Webseite
Galster, die Rahmen des Projektes >>Edition der Korrespondenz Frank Wedekinds als Online"=Volltextdatenbank<< an der Galster, die Rahmen des Projektes >>Edition der Korrespondenz Frank Wedekinds als Online"=Volltextdatenbank<< an der
Fernuni Hagen durchgeführt wird. In der Bachelorarbeit soll der aktuelle Prototyp auf Performance"=Probleme untersucht Fernuni Hagen durchgeführt wird. In der Bachelorarbeit soll der aktuelle Prototyp auf Performance"=Probleme untersucht
und im Anschluss optimiert werden, um die Benutzerfreundlichkeit und die Akzeptanz der Anwendung zu verbessern. und im Anschluss optimiert werden, um die Benutzerfreundlichkeit und die Akzeptanz der Anwendung zu verbessern.
Dies soll dazu führen, dass die digitalen Briefeditionen verstärkt bei der Forschung zur literarhistorischen und Dies würde dazu beitragen, die digitalen Briefeditionen zu verbessern und deren Akzeptanz in der Forschung zur
kulturgeschichtlichen Wissenssteigerung eingesetzt werden. literarhistorischen und kulturgeschichtlichen Wissenssteigerung zu steigern.
\mytodos{der letzte Satz nochmal überarbeiten!}
% helfen das die FOrschung mithilfe solcher datenbank vorrangetrieben wird und somit die foschung an briefedition das Wissen über die Kultur erweitert
\hfill \hfill
Der aktuelle Prototyp der Anwendung wird unter \href{https://briefedition.wedekind.h-da.de} bereitgestellt. Die Fragen Der aktuelle Prototyp der Anwendung wird unter \href{https://briefedition.wedekind.h-da.de} bereitgestellt. Die Fragen

View file

@ -6,6 +6,7 @@
\chapter{Zeitmessung der Webseite} \chapter{Zeitmessung der Webseite}
\label{ap:timing} \label{ap:timing}
Mit dem nachfolgenden Skript werden die wichtigsten URL hinterlegt und jeweils mehrfach ausgeführt. Hierbei ist Mit dem nachfolgenden Skript werden die hinterlegten URLs mehrfach ausgeführt. Jeder Aufruf wird gemessen und pro URL
die kürzeste, die längste, die durchschnittliche Laufzeit und die Standardabweichung ausgegeben.
\includecode[Bash]{chapters/thesis/appendix02_timing.sh}{lst:timing}{Zeitmessung} \includecode[Bash]{chapters/thesis/appendix02_timing.sh}{lst:timing}{Zeitmessung}

View file

@ -6,7 +6,7 @@ set -euo pipefail
main() { main() {
{ {
echo -e "URL\tRuns\tMin (ms)\tAvg (ms)\tMax (ms)" echo -e "URL\tRuns\tStDev\tMin (ms)\tAvg (ms)\tMax (ms)"
for url in ${@:2}; do for url in ${@:2}; do
get_statistics $url $1 get_statistics $url $1
done done
@ -18,6 +18,7 @@ get_statistics() {
local min=1000000000 local min=1000000000
local max=0 local max=0
local dur=0 local dur=0
local durQ=0
# repeat for the defined counts the url calling # repeat for the defined counts the url calling
for i in $(seq 1 $2); do for i in $(seq 1 $2); do
@ -29,10 +30,15 @@ get_statistics() {
then min=$gp then min=$gp
fi fi
dur=$(( $dur + $gp )) dur=$(( $dur + $gp ))
durQ=$(( $durQ + $(($gp * $gp)) ))
done done
local avg=$(($dur/$2))
local avgPow=$(($avg * $avg))
local stdev=$( echo "sqrt(($durQ / $2) - $avgPow)" | bc )
# output the statistic values # output the statistic values
echo -e "$1\t$2\t$min\t$(($dur/$2))\t$max" echo -e "$1\t$2\t$stdev\t$min\t$avg\t$max"
} }
get_posts() { get_posts() {

Binary file not shown.