Für Eingabe $I \in\mathcal{D}$ berechnet $A$ in Zeit $t(\abs{I})$ eine Ausgabe $\sigma_I^A \in\mathcal{S}(I)$. Es gilt die Schreibweise $A(I)= f(\sigma_I^A)$.
\subsection{Unmöglichkeitsergebnis für das Rucksackproblem}
\begin{satz}
Falls $P \neq NP$, dann gibt es keine Konstante $n\in\mathbb{N}$, sodass es einen polynomiellen Approximationsalgorithmus $A$ für das Rucksackproblem gibt mit
\begin{equation*}
\abs{A(I) - \opt(I)}\le k
\end{equation*}
\end{satz}
\begin{proof}[Widerspruchsbeweis]
Unter der Annahme, dass $A$ und $k$ existieren, kann \problem{Rucksack} in Polynomzeit exakt gelöst werden, was $P = NP$ zur Folge hat:
Konstruiere aus einer Instanz $I =\langle W, \mathrm{vol}, p, B \rangle$ eine neue Probleminstanz $I' =\langle W, \mathrm{vol}, p', B\rangle$ mit $p'(w)=(k +1)\cdot p(w)$.
Eine zulässige Lösung $\sigma$ für $I$ ist auch eine zulässige Lösung für $I'$. Gleiches gilt aufgrund der Monotonie der Multiplikation auch für optimale Lösungen.
Durch die Multiplikation aller Preise mit $k +1$ beträgt die \enquote{Lücke} zwischen den optimalen und der ersten nicht-optimalen Lösung für $I'$ mindestens $k +1$.
Da $A$ eine absolute Güte von $k$ garantiert und in Polynomzeit terminiert, kann es nur eine optimale Lösung für $I'$, welche auf optimal für $I$ ist, zurückgeben. Damit ist das $NP$-vollständige \problem{Rucksack} in Polynomzeit exakt lösbar.
\end{proof}
Die hierbei verwendete Vorgehensweise einer Selbstreduktion sowie das \enquote{Aufblasen} des Problems (\enquote{Scaling}, \enquote{Gap Amplification}) lässt sich auch auf viele andere Probleme wie etwa \problem{SetCover} anwenden. Folglich kann eine konstante Gütegarantie nur für vergleichsweise wenig Probleme erreicht werden.
Wenn es einen polynomiellen Approximationsalgorithmus $A$ mit konstanter relativer Gütegarantie $r$ für das volle \problem{TSP} gibt, dann gilt $P = NP$.
\end{satz}
\begin{proof}[Beweis durch Reduktion]
Durch Benutzung von $A$ mit beliebiger konstanter relativer Gütegarantie $r \in\mathbb{N}$ kann \problem{Hamilton} auf das volle \problem{TSP} reduziert werden. Es wird also $\problem{Hamilton}\le\mathrm{p}\problem{TSP}[r]$ für alle $r$ gezeigt:
Sei der Graph $G =(V, E)$ mit $n =\abs{V}$, gegeben. Dazu wird nun passend eine Probleminstanz $I_G =\langle K_n, c\rangle$ für \problem{TSP} erzeugt. $c$ wird wie folgt konstruiert:
\left(r - 1\right)\cdot n + 2 & sonst (\enquote{lange} Kante)
\end{cases*}
\end{equation*}
$I_G$ kann in Polynomzeit aus $G$ berechnet werden. Es gilt weiter:
\begin{itemize}
\item$G \in\problem{Hamilton}\Rightarrow$ kürzeste Rundreise in $I_G$ hat die Länge $n$
\item$G \notin\problem{Hamilton}\Rightarrow$ kürzeste Rundreise in $I_G$ nimmt mindestens eine der langen Kanten und hat damit eine Länge von mindestens
\begin{equation*}
(r - 1) \cdot n + 2 + n - 1 = r \cdot n +1 > r \cdot n
\end{equation*}
\item$I_G$ besitzt keine zulässige Lösung $\sigma$ mit $n +1\le c(\sigma)\le r \cdot n$.
\end{itemize}
Durch den folgenden Algorithmus kann also \problem{Hamilton} entschieden werden:
\begin{algorithmic}[]
\State konstruiere $I_G$
\State approximiere mit $A$ eine kürzeste Rundreise $A(I_G)$
\If{$A(I_G) > r \cdot\abs{V}$}
\State\Return$G \notin\problem{Hamilton}$
\Else
\State\Return$G \in\problem{Hamilton}$
\EndIf
\end{algorithmic}
\end{proof}
Der Ansatz der Konstruktion von Probleminstanzen anderer $NP$-schwerer Probleme und der anschließenden Verwendung eines Scaling-Arguments kann auch für weitere Probleme verwendet werden. Ebenfalls können damit bestimmte Bereiche für mögliche konstante relative Gütegarantien ausgeschlossen werden, etwa $\rho < \frac{3}{2}$ bei \problem{BinPacking}.
Während die Ergebnisse von Approximationsalgorithmen mit absoluter oder relativer Gütegarantie nur durch eine Modifikation oder Wechsel des Algorithmus verbessert werden können, ist es manchmal gewünscht, im Gegenzug für eine verlängerte Laufzeit eine bessere Güte zu erreichen. Dafür sind sogenannte Approximationsschemata geeignet.
\subsection{Definition}
Sei $\Pi$ ein Optimierungsproblem und $A$ ein Approximationsalgorithmus für $\Pi$, der eine Probleminstanz $I$ von $\Pi$ und ein $0 < \varepsilon < 1$ bekommt.
\begin{enumerate}
\item$A$ ist ein polynomielles Approximationsschema (PAS) für $\Pi$, wenn $A$ zu jedem $I$ und für jedes $\varepsilon$ in Zeit $\mathcal{O}(\mathrm{poly}(\abs{I}))$ eine zulässige Lösung zu $I$ mit relativem Fehler $\varepsilon_A(I, \varepsilon)\le\varepsilon$ berechnet.
\item$A$ ist ein streng polynomielles Approximationsschema (FPAS), wenn $A$ ein PAS mit Laufzeit $\mathcal{O}(poly\left(\abs{I}, \frac{1}{\varepsilon}\right))$ ist.
\end{enumerate}
\begin{satz}[Umwandlung eines (F)PAS in einen exakten Algorithmus]
Sei $A$ ein (F)PAS und zu jeder Eingabe $I$$Z(I)$ eine obere Schranke. Sei $\varepsilon^*=\frac{1}{Z(I)+1}$, dann ist $A(I, \varepsilon^*)=\opt(I)$. Sofern $A$ ein FPAS ist, liegt die Laufzeit in $\mathcal{O}(\mathrm{poly}(\abs{I}, Z(I)))$.
\end{satz}
\begin{proof}
Starte $A$ mit Eingabe $I$ und $\varepsilon^*$. Es wird eine zulässige Lösung zu $I$ gefunden, für ihren relativen Fehler gilt
Da die Werte zulässiger Lösungen immer ganzzahlig sind, folgt $\abs{\opt(I)- A(I, \varepsilon^*)}=0$, damit also die Optimalität von $A(I, \varepsilon^*)$.
Sei $\Pi$ ein kombinatorisches Optimierungsproblem, sodass in allen Instanzen $I$ alle vorkommenden Zahlen natürliche Zahlen sind. Sei $\mathrm{maxnr}(I)$ die größte in $I$ vorkommende Zahl. Ein Algorithmus wird als pseudo-polynomiell bezeichnet, falls es ein Polynom $\mathrm{poly}(\cdot, \cdot)$ gibt, sodass für alle Instanzen $I$ seine Laufzeit $\mathrm{poly}(\abs{I}, \mathrm{maxnr}(I))$ ist.
Kann also das Problem so eingeschränkt werden, dass für alle Instanzen $I$ die größte vorkommende Zahl durch ein Polynom begrenz wird, also $\mathrm{maxnr}(I)\le q(\abs{I})$ mit Polynom $q$ gilt, so ist auch die Laufzeit des Algorithmus polynomiell.
Mit dem folgenden Hilfslemma kann eine Beziehung zwischen der Anzahl der notwendigen Farben und dem minimalen Grad des Graphs hergestellt werden.
\begin{lemma}
Sei $G$ ein knoten-$k$-färbbarer Graph, dann gilt:
\begin{equation*}
\exists u \in V: \mathrm{deg}_G(u) \le\left\lfloor\left(1 - \frac{1}{k}\right) \cdot\abs{V}\right\rfloor
\end{equation*}
\end{lemma}
\begin{proof}
Da $G$ mit $k$ Farben gefärbt ist, gibt es $k$ Mengen $U_i$ an Knoten, die jeweils mit der gleichen Farbe $i$ gefärbt sind.
Es muss nach einem Durchschnitsargument eine Menge $U_i$ mit $\abs{U_i}\geq\left\lceil\frac{1}{k}\cdot\abs{V}\right\rceil$ geben. Jeder der Knoten $u$ in $U_i$ kann maximal mit allen Knoten aus $V \setminus U_i$ verbunden sein. Es folgt also
aufgelöst werden. Solange $n_t \ge1$ gilt, wird ein neuer Knoten nach $U$ gelegt. Durch Umformen obiger Ungleichung lässt sich dies für $t \ge\log_k\left(\frac{n}{3}\right)$ garantieren. Es folgt also $\abs{U}\ge\left\lceil\log_k\left(\frac{n}{3}\right)\right\rceil$.
Für einen knoten-$k$-färbbaren Graph $G =(V, E)$ mit $n =\abs{V}$ gibt \algo{GreedyCol2} eine Färbung mit höchstens $\frac{3n}{\log_k \left(\frac{n}{16}\right)}$. Die relative Gütegarantie liegt als in $\mathcal{O}\left(\frac{n}{\log n}\right)$.
\end{satz}
\begin{proof}
Zur Vereinfachung bezeichne $n_t =\abs{V^{(t)}}$. Aus der Analyse von \algo{GreedyIS} folgt $\abs{U_t}\ge\log_k\left(\frac{n_t}{3}\right)$. Es ergibt sich die Rekursion
Solange $n_t \ge\frac{n}{\log_k\left(\frac{n}{16}\right)}$ also gilt, werden pro Runde mindestens $\frac{1}{2}\cdot\log_k\left(\frac{n}{16}\right)$ Knoten pro Runde gefärbt. Nach höchstens $t \le\frac{2n}{\log_k\left(\frac{n}{16}\right)}$ gilt die Ungleichung nicht mehr. Färbt man jetzt alle verbliebenen Knoten mit jeweils einer eigenen Farbe, werden insgesamt maximal $\frac{n}{\log_k\left(\frac{n}{16}\right)}+ t \leq\frac{3n}{\log_k\left(\frac{n}{16}\right)}$ vergeben.
Mit $k =\chi_G =\opt(G)$ ergibt sich für die relative Gütegarantie:
Ein Matching $M$ eines kantengewichteten Graphen $G$ ist ein Teilgraph von $G$ mit $\Delta(G)\le1$. Ist $G$ ein vollständiger Graph mit $\abs{V}$ gerade, dann gibt es perfekte Matchings. In einem perfekten Matching haben alle Knoten genau den Grad 1. Ein perfektes Matching mit kleinstmöglichem Gewicht wird als leichtestes Matching bezeichnet. Ein solches leichtestes Matching kann in $\mathcal{O}(n^{2.5}\cdot(\log n)^4)$ berechnet werden.
Als Multi-Graph wird ein Graph bezeichnet, der um mehrere Kanten zwischen den gleichen Knoten erweitert wurde.
Wird in einem Pfad jede Kante des (Multi-)Graph genau einmal besucht, so spricht man von einem Euler-Pfad. Bildet der Pfad einen Kreis, so nennt man ihn Euler-Kreis oder Euler-Tour. Haben alle Knoten von $G$ geraden Grad, so existiert eine Euler-Tour in $G$. Diese lässt sich in $\mathcal{O}(\abs{V}+\abs{E})$ berechnen.
Der Algorithmus von Christofides (\algo{CH}) geht wie folgt vor:
\begin{algorithmic}[1]
\State berechne einen minimalen Spannbaum $T_\mathrm{CH}$ von $I =\langle K_n, c\rangle$
\State$S =\{v \in T_\mathrm{CH}\mid\mathrm{deg}_{T_\mathrm{CH}}(v)\,\text{ungerade}\}$\Comment{$\abs{S}$ ist gerade}
\State berechne auf dem durch $S$ induzierten Teilgraphen des $K_n$ ein leichtestes Matching $M_\mathrm{CH}$
\State berechne eine Euler-Tour $E =(u_1, u_2, \dots)$ auf $T_\mathrm{CH}\cupdot M_\mathrm{CH}$\Comment{$T_\mathrm{CH}\cupdot M_\mathrm{CH}$ kann Multi-Graph sein, alle Knoten haben geraden Grad}
\algo{CH}, gestartet mit einer Eingabe auf $n$ Knoten, garantiert eine relative Güte von $\rho_\mathrm{CH}\le\frac{3}{2}-\frac{1}{n}$ in einer Laufzeit von $\mathcal{O}(n^{2.5}\cdot(\log n)^4)$.
\end{satz}
\begin{proof}
Sei $R^*$ eine optimale Rundreise für $I$, d.h. $c(R^*)=\opt(I)$. Es gilt $\algo{CH}(I)= c(E')\le(\frac{3}{2}-\frac{1}{n})\cdot c(R^*)$ zu zeigen.
\begin{enumerate}
\item Da $R^*$ aus $n$ Kanten besteht, muss durch ein Durchschnittsargument mindestens eine Kante $e$ mit $c(e)\ge\frac{c(R^*)}{n}$ existieren. Wird diese aus $R^*$ entfernt, so enthält man einen Spannbaum des $K_n$. Da $T_\mathrm{CH}$ minimal ist, gilt
\item In beliebigen Bäumen ist die Anzahl der Knoten mit ungeradem Grad gerade.
\item Zur Vereinfachung werden die Knoten so umbenannt, dass $R^*=(u_1, u_2, \dots, u_n, u_1)$ ist.
$S$ kann dann als $S =\{u_{i_1}, \dots, u_{i_{\abs{S}}}\}$ mit $i_1 < \dots < i_{\abs{S}}$ geschrieben werden.
Aus $S$ kann ein Kreis $H =(u_{i_1}, \dots, u_{i_{\abs{S}}}, u_{i_1})$ gebildet werden. Durch die Dreiecksungleichung ($\abs{H}\le n$ und jede \enquote{Abkürzung} ist maximal gleich lang wie der Weg in $R^*$) gilt $c(H)\le c(R^*)$.
Es können zwei perfekte Matching $M_1$ und $M_2$ auf $H$ berechnet werden, denn $\abs{S}$ ist gerade. Weil $M_\mathrm{CH}$ minimal ist, folgt o.B.d.A. mit $c(M_1)\le c(M_2)$ die Aussage
\item Da jeder Knoten in $T_\mathrm{CH}\cupdot M_\mathrm{CH}$ geraden Grad hat, kann eine Euler-Tour $E$ berechnet werden. Weil diese nur Kanten aus $T_\mathrm{CH}\cupdot M_\mathrm{CH}$ benutzt, kann ihre Länge mit den vorherigen Ergebnissen wie folgt beschränkt werden:
\section{Approximationsschema für \problem{Rucksack}}
\subsection{\algo{DynRucksack} zur exakten Lösung von \problem{Rucksack}}
Für eine Instanz $I =\langle W, \mathrm{vol}, p, B\rangle$ kann direkt eine obere und eine untere Grenze für den maximalen Wert der Füllung angegeben werden:
\begin{equation*}
P_{\max}\le\opt(I) \le n \cdot P_{\max}
\end{equation*}
Sei $F_j(\alpha)$, wobei $j \in\{0, 1, \dots, n\} und $$\alpha\in\mathbb{Z}$ gilt, das kleinste benötigte Rucksackvolumen, mit dem man einen Wert von mindestes $\alpha$ erreichen kann, wenn man die ersten $j$ Waren einpacken darf.
Die formale Definition
\begin{equation*}
F_j(\alpha) = \min\{\mathrm{vol}(R)\mid R \subseteq\{1, \dots, j\}, p(R) \ge\alpha\}
\end{equation*}
lässt sich durch die folgende Rekursion ausdrücken:
\algo{AR\textsubscript{$k$}} macht bei Eingabe $I$ einen relativen Fehler von $\varepsilon_{\algo{AR\textsubscript{$k$}}}\le\frac{k \cdot n}{P_{\max}}$ und hat eine Laufzeit von $\mathcal{O}(n^2\cdot\frac{P_{\max}}{k})$.
\end{satz}
\begin{proof}
Sei $R^*$ die Indexmenge einer optimalen Rucksackfüllung für $I$ und $R_k$ die berechnete Indexmenge der Lösung des um $k$ reduzierten Problems $I_\mathrm{red}$.
Da $R_k$ eine optimale Lösung für $I_\mathrm{red}$ ist, gilt $\opt(I_\mathrm{red})\geq\sum_{j\in R^*}\left\lfloor\frac{p_j}{k}\right\rfloor$. Weiterhin ist $R_k$ eine zulässige Lösung für $I$.
Es gilt dann:
\begin{align*}
\algo{AR}_k(I) &= p(R_k) \ge k \cdot\sum_{j\in R_k}\left\lfloor\frac{p_j}{k}\right\rfloor = k \cdot\opt(I_\mathrm{red})\\
&\ge k\cdot\sum_{j\in R^*}\left\lfloor\frac{p_j}{k}\right\rfloor\ge k \cdot\sum_{j\in R^*}\left(\frac{p_j}{k} - 1\right) = \sum_{j\in R^*}\left(p_j - k\right) = p(R^*) - k \cdot\abs{R^*}\\
&= \opt(I) - k \cdot\abs{R^*}\ge\opt(I) - k \cdot n
\end{align*}
Damit folgt für den relativen Fehler die zu zeigende Aussage
\algo{FPASRucksack} ist ein FPAS für \problem{Rucksack} mit einer Laufzeit von $\mathcal{O}\left(n \cdot\log\frac{1}{\varepsilon}+\frac{1}{\varepsilon^4}\right)$.