Teile und Herrsche 2 SS10
Aus ProgrammingWiki
Autoren:
Felix Deutschmann (sifedeut@stud.hs-zigr.de)
Marek Brzozowski (simabrzo@stud.hs-zigr.de)
Inhaltsverzeichnis |
Einführung
Diese Seite beschäftigt sich mit den Algorithmen Binäre Suche, Multiplikation großer, ganzer Zahlen nach KARATSUBA und OFMAN, sowie Schnelle Matrixmultiplikation, welche hier vorgestellt und demonstriert werden.
Weiterhin findet man hier auch die Vorlesungsunterlagen, sowie die Übungsaufgaben zu diesem Thema.
Binäre Suche
Wer schon einmal etwas gesucht hat, sei es ein Schlüssel an einem Schlüsselbund oder einen Namen im guten alten Telefonbuch oder auch nur eine Seite in einem dicken Buch, der hat sich dabei vielleicht schon eine wichtige Frage gestellt: "Wie finde ich das jetzt am besten?".
Beim Schlüsselbund sieht man sich jeden einzelnen Schlüssel an und prüft, ob es der Schlüssel ist, den man gesucht hat. Man kann diese Vorgehensweise mit dem Suchen in einer unsortierten Liste vergleichen. Bei dieser Art zu suchen prüft man, ob das zu suchende Element x in der Liste L vorkommt - Elementweise. Im ungünstigsten Fall findet man das Element an der letzten Stelle der Liste L. Diese Suche mit hat einen linearen Aufwand und ist für lange Liste nicht zu empfehlen. Eine Implementierung dieser Suche in Scheme ist folgende:
Dieser Suchalgorithmus hat zwei große sofort erkennbare Schwächen.
- der Aufwand steigt linear mit wachsender Elementeanzahl
- die Liste wird komplett durchsucht, wenn das Element fehlt
Das zweite Problem können wir mit einem kleinen Trick sofort beheben. Wir nehmen eine aufsteigend sortierte Liste und durchsuchen diese mit dem folgenden leicht modifizierten Algorithmus. Damit können wir dann in einigen Fällen die Suche vorzeitig abbrechen, wenn das Element nicht in der Liste ist.
Da aber auch hier der Aufwand linear bleibt, erfüllt die sequentielle Suche nicht unseren Wunsch nach einem geringeren Aufwand.
Wenden wir uns also der Suche nach einem Namen im Telefonbuch zu. Wie würde man dabei vorgehen? Bei den meisten Menschen kann man folgendes erkennen:
Zuerst wird das Buch in der Mitte aufgeschlagen. Dann prüfen sie, ob der Anfangsbuchstabe vom gesuchten Namen mit dem aktuellen Index im Telefonbuch übereinstimmt. Wenn das so ist, dann ist die Suche vermutlich noch auf der selben Seite vorbei. Haben sie den Anfangsbuchstaben noch nicht gefunden, so überlegen sie, ob der gesuchte Anfangsbuchstabe vor oder nach dem aktuellen Index auftritt. Daraufhin wird entweder vor oder nach der Mitte des Buches weitergesucht. Aber nicht irgendwie, sondern wieder mit dem selben Verfahren. Auf diese Weise wird der Suchraum kontinuierlich halbiert und man kommt mit dieser Methode deutlich schneller zum Ziel als mit der sequentiellen Suche.
Jetzt wo der Name dieser Suche geklärt ist, befassen wir uns ein wenig näher mit der binären Suche. Dafür reduzieren wir das Suchproblem auf eine Liste mit Elementen aus dem Zahlenbereich der ganzen Zahlen :
mit und
Unsere Liste L muss nun möglichst in der Mitte geteilt werden. Da das aber bei einer ungeraden Anzahl von Elementen ganzzahlig nicht möglich ist, teilen wir die Anzahl der Listenelemente durch 2 und runden das Ergebnis abschließend auf die nächst kleinere Zahl ab. Mathematisch schreibt man: ( ist der Index des Elementes in der Mitte der Liste )
Nach der Teilung haben wir nun zwei Teillisten, eine linke und eine rechte:
- und
Wenn nun unser gesuchtes Element ist, dann wird mit dem ersten Element der rechten Teilliste verglichen . Abhängig vom Ergebnis dieser Prüfung wird nun mit der rechten oder linken Teillisten fortgefahren. Die verwendete Teilliste wird dann wieder in zwei Teillisten aufgeteilt und die Prüfung beginnt von vorn. Dieser Vorgang wird solange wiederholt, bis entweder gefunden wurde oder bis alle Teillisten untersucht worden sind. Im besten Fall ist das erste Element unserer Teilliste schon das gesuchte .
Zur übersichtlichen Darstellung der binären Suche zeigen wir hier die rekursive Bildungsvorschrift:
Mit der binären Suche ist es möglich, in einem Telefonbuch mit 250.000 Einträgen und 700 Seiten mit höchstens Namensvergleichen jeden Namen zu finden.
Implementierung in Scheme
Aufgrund der oben stehenden interessanten Information schauen wir uns jetzt einmal den Algorithmus in seiner Scheme-Implementierung an.
Bevor wir aber zum eigentlichen Algorithmus kommen, benötigen wir noch die Prozedur teillisten2, welche im Kapitel Teile und Herrsche 1 im Zusammenhang mit Mergesort behandelt wurde.
Scheme-Implementierung der binären Suche:
Um zu sehen, dass der Algorithmus arbeitet, haben wir zur Vereinfachung eine Liste explizit angegeben. Bei der späteren selbständigen Arbeit mit der binären Suchen können auch die Prozeduren zzls (Erstellt eine Liste mit Zufallszahlen) und mergesort (sortiert eine Liste) verwendet werden. Beide Prozeduren werden für die Übungen bekannt gegeben.
Wir suchen nach dem Element 42:
Nachdem wir die binäre Suche nun ausprobieren konnten, stellen wir fest, dass das Ergebnis etwas dürftig ist. Denn die Aussage, dass etwas gefunden wurde ist nicht sinnvoll, wenn man nicht auch noch gesagt bekommt, an welcher Stelle das Element gefunden wurde. Aus diesem Grund fügen wir diese Funktion noch in unsere Prozedur ein. Weiterhin wird noch ein Aufrufzähler eingebaut, welcher die Rekursionsschritte zählt. Diesen können wir dann für die empirische Aufwandsanalyse benutzen.
Zuerst definieren wir einen Zähler und einen Index:
Dann implementieren wir die eben definierten Variablen in der Binären Suche
Und abschließend benötigen wir noch eine Prozedur zum Aufruf der binären Suche:
Ein Aufruf unserer neuen binären Suche ergibt dann das gewünschte Ergebnis.
Vergleich Sequentielle Suche - Binäre Suche
Da wir nun im vorangegangenen Teilabschnitt die Grundlage für eine empirische Analyse der binären Suche geschaffen haben, möchten wir das an dieser Stelle auch für die sequentielle Suche tun. Somit ist es dann in der Übung möglich die Aufwände der beiden Suchen zu vergleichen.
Dafür müssen wir lediglich die Variable für die Aufrufe implementieren, da diese dann auch für den Index verwendet werden kann:
Weiterhin schaffen wir uns noch eine Prozedur, welche die Variable "calls" zurücksetzt:
Somit können wir mit den folgenden Aufruf machen:
Effizienzanalysen
Best Case
Beide Suchalgorithmen können im ersten Schritt zum Ergebnis kommen. Bei der sequentiellen Suche ist das das erste Listenelement und bei der binären Suche ist es das erste Element der rechten Teilliste. Beide Suchen erreichen somit einen konstanten Aufwand , der unabhängig von n ist.
Average- und Worst-Case
Betrachten wir zunächst die sequentielle Suche. Im schlechtesten Fall benötigt sie Durchläufe, d.h. . Im mittleren Fall gilt das genauso. Geht man jetzt davon aus, das alle Listenelemente mit mit gleicher Wahrscheinlichkeit übereinstimmen, ist der Aufwand der sequentiellen Suche
Betrachten wir nun den Aufwand der binären Suche. Aufgrund der Arbeitsweise des Algorithmus kann man sofort erkennen, dass sich die Längen der Teillisten in jedem Schritt halbieren. Das gilt besonders dann, wenn die Anzahl der Listenelemente gerade ist. Ist dies der Fall, dann stimmt die Anzahl der rekursiven Aufrufe mit der Anzahl der Halbierungen überein. Das sind genau Stück. Für die Vergleichoperationen (also die in den Zwischenschritten) setzen wir einen konstanten Aufwand an. Somit ergibt sich für die binäre Suche im mittleren, sowie schlechtesten Fall ein Gesamtaufwand von
Fazit
Da man in der Praxis den Best Case vernachlässigen kann, muss man seine Aufmerksamkeit nur auf den mittleren und den schlechtesten Fall lenken. Der Aufwand der sequentiellen Suche ist linear. Der Aufwand der binären Suche ist logarithmisch. Aufgrund dessen sollte man die binäre Suche der sequentiellen vorziehen.
Um das ganze noch einmal deutlich zu gestalten stellen wir die Aufwände für verschieden große in einer Tabelle gegenüber:
Spätestens jetzt sollte einem der Unterschied klar geworden sein.
Multiplikation großer ganzer Zahlen
Ein weiterer Teile-und-Herrsche Algorithmus ist die schnelle Multiplikation nach KARATSUBA und OFMAN zum Multiplizieren zweier ganzen Zahlen und . Jetzt fragt man sich vielleicht, warum man sich noch eine Multiplikationsmethode ausgedacht hat und wieso man als angehender Informatiker davon gehört haben sollte. Wir kennen doch schon mindestens zwei - zum Einen die schriftliche Multiplikation aus der Schule und dann noch die Multiplikation á la Russe. Betrachten wir die Verfahren einmal etwas genauer.
Aufwand der schriftlichen Multiplikation
Zu Beginn wollen wir uns den Aufwand der schriftlichen Multiplikation aus unserer frühen Schulzeit ansehen. Für die Multiplikation zweier -stelliger Zahlen benötigt diese Methode Multiplikationen und einige Additionen. Der Aufwand ist mit quadratisch.
Aufwand der Multiplikation á la Russe
Die Multiplikation á la Russe wurde schon in der Einführung in das Thema Algorithmen und Komplexität vorgestellt und soll hier nicht weiter erklärt werden. Wir wollen hier nur den Aufwand dieser Methode aufgreifen, um später in diesem Kapitel darauf zurück greifen zu können: .
Mit diesen beiden Aufwänden im Hinterkopf betrachten wir nun die schnelle Multiplikation nach KARATSUBA und OFMAN.
Der Algorithmus von KARATSUBA und OFMAN
Gleich zu Beginn müssen wir eine Vereinbarung treffen. Die zu multiplizierenden Zahlen und müssen die gleiche Stelligkeit haben und muss gerade sein.
Die beiden Faktoren und lassen sich nun in je zwei Teile aufteilen.
und , wobei die Basis des Zahlensystems ist (z.B. ). Da wir eine gerade und gleiche Stelligkeit vorraussetzen, sind die beiden Teile der Faktoren gleich lang. Das Produkt ergibt sich nun aus folgender Rechnung:
Ist man nach dieser einfachen Umstellung der Gleichung nun schon am Ziel und hat den Aufwand reduziert? Die Antwort ist "Nein". Man hat hier nur die Multiplikation der beiden -stelligen Zahlen und auf 4 gleichartige Multiplikationen zweier -stelliger Zahlen zugüglich dreier Additionen von je zwei Zahlen, die nicht mehr als -stellig sind, zurückgeführt. Die Addition hat eine Aufwand von . Somit erhält man für den Gesamtaufwand
.
Darauf können wir die Meistermethode anwenden. Das Matching führt in diesem Fall zu und . Damit ergibt sich nach folgendes: Damit ergibt sich .
Bis zu dieser Stelle haben wir den selben quadratischen Aufwand wie unsere Schulbuch-Methode. Um nun eine Aufwandsminderung zu erreichen, wird die Gleichung von oben noch ein wenig umgeformt.
Nach dieser Umformung ergibt sich eine kompliziert aussehende Gleichung mit nur noch 3 verschiedene Multiplikationen, die allerdings mehrfach auftreten. Deswegen werden die Multiplikationen substituiert und man erhält eine einfachere Gleichung.
Jetzt kann man sehr gut erkennen, dass Multiplikationen, die mehrfach vorkommen, nur einmal berechnet werden müssen und dass eine aufwändige Multiplikation durch einfachere Addition und Subtraktion ersetzt worden ist. Diese Tatsachen geben diesem Algorithmus den Aufwandsvorteil, was wir im Folgenden noch zeigen werden.
Wir verzichten an dieser Stelle auf ein ausgiebiges Beispiel, da dieses für die Übung vorgesehen ist.
Der Aufwand der Multiplikation nach KARATSUBA und OFMAN
Nachdem wir uns nun mit der Funktionsweise des Algorithmus beschäftigt haben, wollen wir nun noch den Aufwand betrachten. Wir haben gerade festgestellt, dass die beiden Multiplikationen und je zweimal vorkommen, aber nur einmal mit einem einem Aufwand von jeweils berechnet und danach eingesetzt werden. Dazu kommt nun der Aufwand der noch verbleibenden Multiplikation in , so wie Additionen ().
Daraus ergibt sich ein Gesamtaufwand von .
Die Lösung dieser Gleichung ergibt .
Hier noch einmal alle drei Aufwände untereinander:
- Schulbuch Multiplikationsmethode:
- Multiplikation á la Russe:
- Multiplikation nach Karatsuba und Ofman:
Schnelle Matrixmultiplikation
Die Multiplikation von zwei Matrizen mit Zeilen und Spalten ist ja schon aus der Schule bekannt.
,
Um die Ergebnismatrix zu erhalten, folgt man im Allgemeinen folgender Regel:
Ausgehend von (Zeilen oder Spalten der beiden Matrizen und ), erkennt man schon an der allgemeinen Form, dass daraus Multiplikationen entstehen und dieses Verfahren somit einen Aufwand von benötigt.
Ende der 60er-Jahre hatte Dr. Volker Strassen eine Idee, welche die typische Teile-und-Herrsche Strategie verfolgte. Matrizen teilte er in Teilmatrizen auf und multiplizierte diese untereinander und ermittelte das Produkt, mithilfe aufwandsmäßig günstigen Operationen, mit einem geringeren Gesamtaufwand.
Das Verfahren von STRASSEN lässt sich am besten mithilfe eines Beispieles erklären. Hierzu nehmen wir zwei beliebige Matrizen vom Typ , und mit und .
Diese Zerlegen wir dann nach folgendem Muster in Teilmatrizen.
Und erhalten:
Die Teilmatrizen von erhält man durch
Das sind 8 Matrizenmultiplikationen () und 4 Matrizenadditionen, deren Aufwand in liegt. Daraus ergibt sich die Gleichung . Nach Auflösung dieser erhält man . Offensichtlich ist hier noch keine Aufwandseinsparung entstanden.
Um das gewünschte Ergebnis zu erhalten berechnet man zunächst 7 Matrizen, mit denen man später Multiplikationen ersetzen kann.
Danach kann man die 4 Teilmatrizen von durch Addition bzw. Subtraktion berechnen.
Der Gesamtaufwand setzt sich aus 7 Multiplikationen und 18 Additionen zusammen. Daraus ergibt sich . Die Lösung dieser Gleichung ergibt . Wie wir sehen ist der Aufwand geringer als bei der normalen Matrixmultiplikation.
Theoretisch verwendet man diesen Algorithmus, bis man nur noch Skalare multipliziert. In der Praxis wechselt man zwischen der Schulbuch-Methode und dem Strassen-Algorithmus. Der Strassen-Algorithmus wird nämlich erst ab einer Matrizengrößen von besser. Für den Wechsel gibt es Verfahren, auf die hier nicht weiter eingegangen werden soll. An dieser Stelle wollen wir euch auch nicht vorenthalten, dass der Algorithmus auch für Matrizen vom Typ funktioniert, wenn das ungerade ist. Dafür spaltet man die letzte Zeile und Spalte ab und verfährt dann analog zum eigentlichen Strassen-Algorithmus. Da wir darauf nicht näher eingehen, kann man sich hier ein wenig belesen.
Übungsaufgaben
Die Übungsaufgaben zu den vorgestellten Algorithmen sind hier zu finden.
Quellen
- [1] Wagenknecht, Christian
- Algorithmen und Komplexität.- Fachbuchverlag Leipzig, 2003. - ISBN 3-446-22314-2
- [2] Cormen, Th. H.; Leiserson, Ch. E.; Rivest, R.; Stein, C.
- Algorithmen - Eine Einführung, 2. Auflage.- Oldenburg Wissensch. Vlg., 2007 - ISBN 978-3-486-58262-8
Weblinks
- http://de.wikipedia.org/wiki/Bin%C3%A4re_Suche
- http://www-i1.informatik.rwth-aachen.de/~algorithmus/algo1.php
- http://de.wikipedia.org/wiki/Karatsuba-Algorithmus
- http://de.wikipedia.org/wiki/Matrixmultiplikation#Matrizenmultiplikation
- http://de.wikipedia.org/wiki/Volker_Strassen
- http://de.wikipedia.org/wiki/Strassen-Algorithmus
- http://www3.tu-ilmenau.de/fakia/fileadmin/template/startIA/ktea/Lehre/ea/ws05/19_Matrizen.pdf