Die Ausgangsfragen lassen sich nach Abschluss des Projektes folgendermaßen beantworten. Für das Aggregationsproblem wurden zwei Kriterien identifiziert, anhand derer die Qualität einer Lösung gemessen werden kann: Klassenänderungen sollen gering sein, geometrisch kompakte Formen sind zu bevorzugen. Um Klassenänderungen zu quantifizieren, wurde eine semantische Distanz zwischen Klassen vorgeschlagen. Oft zielt die Generalisierung auch darauf ab, Muster in Datensätzen zu erhalten. Ob ein generalisierter Datensatz dieser Anforderung gerecht wird, ist auch eine Frage der semantischen Genauigkeit. Für die Zukunft ist angestrebt, Maße zu finden, die Muster charakterisieren. Unter Verwendung dieser Maße wäre auch eine Losung durch Optimierung möglich: Charakteristische Mar ße sollen sich möglichst wenig ändern. Für die Aggregation wurde ein Ansatz durch gemischt-ganzzahlige Optimierung vorgeschlagen. Dieser lässt sich auf andere Probleme der Generalisierung übertragen, wie bereits am Beispiel der Gebäudegeneralisierung gezeigt werden konnte Grundsätzlich wurde die Notwendigkeit erkannt, dass stärker als bisher zwischen harten Nebenbedingungen der Generalisierung und Zielen der Generalisierung unterschieden werden muss. Eine harte Nebenbedingung ist beispielsweise, dass selbstschneidende Polygone unzulässig sind. Die Vermeidung von Klassenänderungen ist dagegen ein Ziel der Generalisierung. Wurden die wesentlichen Ziele und Nebenbedingungen der Generalisierung identifiziert und formalisiert, so ist eine Lösung durch (kombinatorische) Optimierung möglich: Die Ziel- oder Kostenfunktion wird unter den Nebenbedingungen minimiert. Eine integrierte Modellierung der Generalisierung als Optimierungsproblem, also die simultane Berücksichtigung aller Variationsmöglichkeiten, ist allerdings oft nicht realisierbar: Das Problem kann zu komplex werden und ist möglicherweise nicht mehr effizient lösbar. Aus diesem Grund ist eine Zerlegung der Generalisierungsaufgabe in Teilaufgaben sinnvoll. Um eine Landbedeckungskarte zu generalisieren, wurden drei Operatoren entwickelt, die nacheinander angewendet wurden: Kollaps von Flächen zu Linien, Flächenzusammenfassung und Liniengeneralisierung. Wir haben gesehen, dass der momentan am weitesten verbreitete Ansatz durch Region Growing nicht zu Ergebnissen hoher Qualität führt. Die Produktion qualitativ hochwertiger digitaler Landschaftsmodelle erfordert einen Mehraufwand an Rechenzeit, der sicherlich tolerabel ist, solange er sich in Maßen hält. Allerdings kann die exakte Lösung kleiner Instanzen des Aggregationsproblems (ca. 50 Flächen) bereits mehrere Tage dauem - der Grund hierfür liegt in der NP-Schwere des Problems. Natürlich ist eine derartig lange Rechenzeit in der Praxis inakzeptabel. Daher sind gute Heuristiken für die Generalisierung erforderlich. Um sehr große Datensätze prozessieren zu können, ist es notwendig, einen Datensatz in kleinere Datensätze zerlegen zu können. Eine der entwickelten Heuristiken erlaubt eine derartige Zerlegung. Sie beruht auf der Annahme, dass die Klassen großer Flächen unverändert bleiben. Diese Zerlegung in Teilinstanzen ermöglicht die Handhabung sehr großer Datensätze und die effiziente Propagierung von Aktualisierungen. Ein Kartenblatt der digitalen topographischen Karte 1:50000 mit 5537 Flächen wurde in 82 Minuten für den Zielmaßstab 1:250000 generalisiert. Im Vergleich zum Region Growing konnten, bei Vernachlässigung der Kompaktheit, die Kosten für Klassenänderungen um 37.5% reduziert werden. Wurde die Kompaktheit als weiteres Optimierungsziel berücksichtigt, so ergab sich eine Reduktion der Kosten für Klassenänderungen um 19.8%; die Kosten für nicht kompakte Flächen wurden um 1.8% reduziert. Zusammenfassend ist zu sagen, dass das vierjährige, von der DFG geförderte Forschungsprojekt zu weitreichenden neuen Erkenntnissen über die Generalisierung geführt hat. Insbesondere die Herangehensweise, ein Qualitätsmaß für die Generalisierung zu definieren und dieses Maß konsequent als Kostenfunktion in einem Optimierungsansatz anzuwenden, stellt eine Neuerung dar. Dieser Ansatz erlaubt es, Ergebnisse zu erzielen, die den Ergebnissen gängiger Ansätze hinsichtlich der Qualität klar überlegen sind. Darüber hinaus bietet der entwickelte Ansatz die Möglichkeit einer exakten Lösung für kleine Instanzen und liefert somit Referenzlösungen, an denen die Qualität von Heuristiken abgeschätzt werden kann.