Current CheckIn

This commit is contained in:
marcodn 2024-04-18 20:20:16 +02:00
parent b4d29ff1b5
commit c5eec92cda
4 changed files with 12 additions and 8 deletions

View file

@ -14,12 +14,9 @@ Diese Umfrage ist Teil der Bachelorarbeit >>Analyse und Optimierung der Webseite
Galster, die Rahmen des Projektes >>Edition der Korrespondenz Frank Wedekinds als Online"=Volltextdatenbank<< an der
Fernuni Hagen durchgeführt wird. In der Bachelorarbeit soll der aktuelle Prototyp auf Performance"=Probleme untersucht
und im Anschluss optimiert werden, um die Benutzerfreundlichkeit und die Akzeptanz der Anwendung zu verbessern.
Dies soll dazu führen, dass die digitalen Briefeditionen verstärkt bei der Forschung zur literarhistorischen und
kulturgeschichtlichen Wissenssteigerung eingesetzt werden.
Dies würde dazu beitragen, die digitalen Briefeditionen zu verbessern und deren Akzeptanz in der Forschung zur
literarhistorischen und kulturgeschichtlichen Wissenssteigerung zu steigern.
\mytodos{der letzte Satz nochmal überarbeiten!}
% helfen das die FOrschung mithilfe solcher datenbank vorrangetrieben wird und somit die foschung an briefedition das Wissen über die Kultur erweitert
\hfill
Der aktuelle Prototyp der Anwendung wird unter \href{https://briefedition.wedekind.h-da.de} bereitgestellt. Die Fragen

View file

@ -6,6 +6,7 @@
\chapter{Zeitmessung der Webseite}
\label{ap:timing}
Mit dem nachfolgenden Skript werden die wichtigsten URL hinterlegt und jeweils mehrfach ausgeführt. Hierbei ist
Mit dem nachfolgenden Skript werden die hinterlegten URLs mehrfach ausgeführt. Jeder Aufruf wird gemessen und pro URL
die kürzeste, die längste, die durchschnittliche Laufzeit und die Standardabweichung ausgegeben.
\includecode[Bash]{chapters/thesis/appendix02_timing.sh}{lst:timing}{Zeitmessung}

View file

@ -6,7 +6,7 @@ set -euo pipefail
main() {
{
echo -e "URL\tRuns\tMin (ms)\tAvg (ms)\tMax (ms)"
echo -e "URL\tRuns\tStDev\tMin (ms)\tAvg (ms)\tMax (ms)"
for url in ${@:2}; do
get_statistics $url $1
done
@ -18,6 +18,7 @@ get_statistics() {
local min=1000000000
local max=0
local dur=0
local durQ=0
# repeat for the defined counts the url calling
for i in $(seq 1 $2); do
@ -29,10 +30,15 @@ get_statistics() {
then min=$gp
fi
dur=$(( $dur + $gp ))
durQ=$(( $durQ + $(($gp * $gp)) ))
done
local avg=$(($dur/$2))
local avgPow=$(($avg * $avg))
local stdev=$( echo "sqrt(($durQ / $2) - $avgPow)" | bc )
# output the statistic values
echo -e "$1\t$2\t$min\t$(($dur/$2))\t$max"
echo -e "$1\t$2\t$stdev\t$min\t$avg\t$max"
}
get_posts() {

Binary file not shown.