\item ab bestimmten Punkt ist Kommunikationsaufwand größer als Ersparnis durch weitere Parallelisierung $\rightarrow$\enquote{Ellbogeneffekt} bei Plot Speed-up gegen $p$
\varepsilon(n,p) &\leq\frac{\sigma(n) + \varphi(n)}{p \cdot\sigma(n) + \varphi(n) + p \cdot\kappa(n,p)}
\end{align*}
\item\begriff{Amdahl'sches Gesetz} mit $f =\frac{\sigma(n)}{\sigma(n)+\varphi(n)}$ als sequentieller Anteil der Programmausführung (unter Vernachlässigung der Kommunikationskosten):
\begin{equation*}
\psi(n,p) \leq\frac{1}{f + \frac{1 - f}{p}}
\end{equation*}
\item Amdahl-Effekt: für große $n$ nimmt Speed-up erst spät ab
\item Gesetz von Gustafson-Barsis nimmt Zeit als Konstante an und skaliert Problemgröße mit Zahl der Prozessoren:\begin{itemize}
\item serieller Anteil eines parallelen Programms $s =\frac{\sigma(n)}{\sigma(n)+\frac{\varphi(n)}{p}}$
\item skalierter Speedup (unter der Annahme, dass paralleles Programm insgesamt 1 Zeiteinheit braucht):
\begin{equation*}
\varphi = p + \left(1 - p\right)\cdot s
\end{equation*}
\end{itemize}
\item\begriff{Karp-Flatt-Maß} berücksichtigt Kommunikation durch experimentelle Bestimmung des seriellen Anteils $e$ eines parallelen Programms