Künstliche Intelligenz
Künstliche Intelligenz (oder KI) schlägt heute manchmal selbst Fachleute – und ist auf anderen Gebieten doch jedem Kleinkind unterlegen. Vor allem, wenn es um die Erkennung komplexer Muster in großen Datenmengen geht, ist künstliche Intelligenz kaum zu übertreffen. Sie erleichtert unser Leben in vielen Bereichen. Wenn sie Entscheidungen übernimmt, die sonst nur Menschen für Menschen treffen, kommt man an ethischen Überlegungen nicht vorbei.
Ein kurzer KI-Kompass
Künstliche Intelligenz begegnet immer mehr Menschen in ihrem Alltag und in den Medien. Laut einer Bitcom Umfrage unter etwa 1000 Personen, geben 95 Prozent an, schon von künstlicher Intelligenz gehört zu haben. Aber nur mehr als die Hälfte von ihnen traut sich zu zu erklären, was hinter dem Begriff steckt. In einer datengetriebenen Welt wird künstliche Intelligenz eine immer größere Rolle spielen. Was kann künstliche Intelligenz und wo liegen ihre Grenzen?
Was künstliche Intelligenz heute leistet, ist nach menschlichen Maßstäben eine extreme Inselbegabung. Sie ist als Werkzeug für spezielle Anwendungen zu verstehen. Die Aufgaben, auf die sie trainiert wurde, bewältigt sie meist schneller und in der Regel zuverlässiger als ein Mensch. Die mathematischen Algorithmen, mit denen künstliche Intelligenz arbeitet, kategorisieren Bilder, sortieren die Ergebnisse von Suchanfragen im Internet oder priorisieren den Nachrichtenstrom in sozialen Medien. Künstliche Intelligenz hält Einzug in unseren Alltag, oft ohne dass wir es merken.
Wissenschaftlerinnen und Wissenschaftler der Max-Planck-Gesellschaft entwickeln Algorithmen des maschinellen Lernens für neue Anwendungen weiter. Sie loten aus, unter welchen Randbedingungen diese auch dort eingesetzt werden können, wo ihre Entscheidungen weitreichende Konsequenzen für den Menschen haben. Und sie untersuchen, wie sich Menschen in Entscheidungen von Algorithmen einbinden lassen. Sie zeigen somit auf verschiedenen Ebenen die Möglichkeiten auf, die sich bei der Nutzung von künstlicher Intelligenz ergeben. Und sie schaffen eine Grundlage, auf der die Gesellschaft entscheiden kann, wie sie mit den Chancen und Risiken von KI als Werkzeug umgehen will. Doch zunächst ein Überblick über künstliche Intelligenz und ihre vielfältigen Anwendungen:
KI und Klimaforschung
Auch in der Wissenschaft kommt künstliche Intelligenz zum Einsatz. Datenströme werden schnell zu umfangreich, als dass sie eine Person oder ein einzelner Computer analysieren könnte. Künstliche Intelligenz hingegen erkennt in kurzer Zeit ganze Muster und Zusammenhänge. Ein Beispiel sind Petabytes an Klima- und Erdbeobachtungsdaten. Darin verborgen: Antworten auf grundlegende und existenzielle Fragen der Menschheit. Wann und warum treten Extremwetterereignisse auf? Welche Kipppunkte hat unser hochkomplexes Erdsystem und unter welchen Umständen werden sie überschritten?
KI und ChatGPT
Neuere Entwicklungen von Algorithmen der künstlichen Intelligenz erlauben sogar, Texte zu übersetzen oder, wie beispielsweise mit ChatGPT, einen Dialog mit Internetnutzerinnen und -nutzern zu führen. Die Antworten von ChatGPT beruhen dabei ausschließlich auf solchen Informationen und Textbausteinen, die im Internet frei verfügbar sind. Die Stärke des Dialogsystems liegt in dessen Natur als Werkzeug. Der Umgang damit will gelernt sein. ChatGPT fasst tausende Zeilen Text in Sekundenbruchteilen zusammen, viel schneller als ein Mensch es könnte. Für Aufgaben außerhalb ihres Spezialgebietes, ist eine künstliche Intelligenz wie ChatGPT unbrauchbar.
Zudem ist oft nicht nachvollziehbar, wie solche Algorithmen zu ihren Einschätzungen und Antworten kommen. Das liegt nicht zuletzt daran, dass sie die Zusammenhänge, die sie aufdecken, selbst nicht verstehen, während schon kleine Kinder ein Grundverständnis von der Welt um sich herum haben. Der Begriff der Intelligenz ist daher mit Vorsicht zu genießen. Was damit in den meisten Fällen gemeint ist, ist das sogenannte maschinelle Lernen, ein Teilbereich der künstlichen Intelligenz.
Was ist künstliche Intelligenz?
Das menschliche Gehirn zeichnet sich dadurch aus, dass es unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verknüpft. Dadurch können wir Geschehnisse in unserer Umwelt einordnen und vorausschauend denken. Ganz anders die künstliche Intelligenz. Sie verwertet Daten, um eine Vorhersage zu treffen oder eine bestimmte Antwort zu geben.
Künstliche Intelligenz, die Probleme allgemeiner Art mit gleichen oder besseren intellektuellen Fähigkeiten als der Mensch löst, findet man höchstens in der Science Fiction Literatur. Die künstlichen Intelligenzen oder besser die Algorithmen des maschinellen Lernens, die Mediennutzerinnen und -nutzer bereits verwenden oder die in der Forschung entwickelt werden, lösen nur bestimmte Probleme. Beispiele aus unserem Alltag sind ChatGPT, Assistenten wie Siri oder Alexa oder Programme in der Medizin, die Tumore auf Ultraschallbildern erkennen, die selbst erfahrene Ärztinnen und Ärzte nur schwer interpretieren können.
Oft bietet es sich an, dem Computer Regeln beizubringen, nach denen er ein Problem lösen soll. Abgesehen von Spielen wie Schach, wird diese Form aber kaum angewandt. In vielen Fällen nutzt man eine künstliche Intelligenz genau aus dem Grund, weil es unmöglich ist, alle Regeln im Voraus zu kennen und abzudecken. Stattdessen erzielten Forschende in den letzten Jahren rasante Fortschritte mit selbstlernenden Programmen des maschinellen Lernens.
Wie geht maschinelles Lernen?
So lernt künstliche Intelligenz
Ein Programm lernt auf verschiedene Arten: unüberwacht, überwacht oder bestärkend. Beim unüberwachten Lernen sucht der Computer ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden in Daten. So finden Forschende Muster in komplexen Datensätzen, die sonst verborgen bleiben. Ein Beispiel hierfür sind Klimadaten, Bodenproben aus dem Alpenvorland oder Satellitenbilder von tauenden Permafrostböden in Sibirien. Das Ziel: zu verstehen, wie und warum sich das veränderte Klima auf Ökosysteme auswirkt. Im Laufe der COVID-19 Pandemie füllten sich die Datenzentren mit einer Fülle von Informationen über verschiedene und bisher unbekannte Krankheitsverläufe. Ein Team am Max-Planck-Institut für Intelligente Systeme entwickelte ein auf maschinellem Lernen beruhendes Verfahren und ermittelte aus diesen Daten ein Sterblichkeitsrisiko für das neuartige Virus. Eine andere Anwendung für einen unüberwacht lernenden Algorithmus ist die menschliche Psyche. So vielfältig Symptome wie Schlappheit oder Dünnhäutigkeit sind, so schwierig ist die Diagnose einer Depression. Am Max-Planck-Institut für Psychiatrie haben Forscherinnen und Forscher medizinische Daten von Patientinnen und Patienten mit maschinellem Lernen durchforstet. Das Ziel: eventuelle psychische Erkrankungen früh erkennen.
Beim überwachten maschinellen Lernen erhält der Algorithmus ein klares Ziel. Er soll zum Beispiel erkennen, welche Tierart auf einem beliebigen Tierbild zu erkennen ist. Dies ist ein klassisches Beispiel der Computer-Vision. Zuvor müssen Menschen den Algorithmus mit so vielen Beispielen wie möglich trainieren. Bild für Bild teilen sie dem Computer mit, welches Bild eine Katze oder welches einen Hund zeigt. Während der Mensch ein Tier sofort an Fell, Augen, Ohren, Schwanz oder Zähnen erkennt, wird der fertig trainierte Algorithmus dieselbe Aufgabe anhand von Merkmalen erfüllen, die für uns Menschen schwer einsehbarer sind.
Selbst eine künstliche Intelligenz mit einer vermeintlich einfachen Aufgabe, irrt sich. Auf einem Foto, das eindeutig eine Katze zeigt, erkannte der Algorithmus einen Hund. Möglicherweise bilden Schwanz und Kopf der Katze gemeinsam eine ähnliche Form, wie zwei abstehende, spitze Hundeohren. Der Grund für die Verwechslung ist eine Schieflage in den Trainingsdaten: Der Computer wurde vor allem mit Bildern von Hunden trainiert, deren Ohren deutlich zu erkennen sind und spitz abstehen. Hätte der Algorithmus eine ausgewogenere Auswahl an Bildern als Anhaltspunkte erhalten, wäre der Fehler womöglich nicht passiert. Auch wenn man einfach nur mehr Fotos zum Trainieren verwendet hätte, wäre die Trefferquote insgesamt besser ausgefallen. Nach dem gleichen Prinzip funktionieren Übersetzungsprogramme, Spracherkennungssoftwares oder Programme, die unsere Handschrift erkennen. Maschinelles Lernen ist also verbunden mit einem erheblichen Aufwand für Forschende, mit großen Datenmengen und enormer Rechenleistung. Ob sich der Aufwand lohnt, hängt vom Zweck ab.
In den Bereichen, in denen sich Regeln definieren lassen, hilft das sogenannte bestärkende Lernen. Fährt ein autonomes Fahrzeug beispielsweise im vollen Tempo über eine rote Ampel, ist das eine unerlaubte Handlung, die der eingebaute Computercode beim nächsten Mal korrigieren muss. Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik erforschen bestärkendes Lernen in einem weniger kritischen Bereich. Sie bringen einem Roboter die flüssigen und treffsicheren Bewegungen eines Tischtennisspielers bei. So wird dem Roboter freie Hand gelassen, wie er einen Tischtennisschläger positioniert. Hauptsache der Schläger trifft den Ball.
Künstliche Intelligenz erstaunt und halluziniert
Tritt künstliche Intelligenz in den Kontakt mit dem Menschen oder ist sie an Entscheidungen beteiligt, ist Augenmaß gefragt. Zwei Beispiele aus der Computer-Vision: Forschende des Max-Planck-Instituts für Informatik haben eine Software entwickelt, die die Lippenbewegungen einer Person in einem Video an eine vorgegebene Tonspur anpasst. Dieses Werkzeug ist wertvoll für die Sprachsynchronisation von Filmen. Eine andere Software aus dem selben Haus (GragGan) erlaubt es Bildvorlagen gezielt zu bearbeiten, also etwa den Kopf eines aus einer bestimmten perspektive fotografierten Tieres per Mauszeiger in alle Richtungen zu drehen. Solche Algorithmen sind zugleich manipulativ und dürfen nicht missbraucht werden. Bei selbstfahrenden Autos geht es im Zweifelsfall sogar um Leben und Tod. Eine Software des Max-Planck-Instituts für Intelligente Systeme behält auch in unübersichtlichen Verkehrssituationen den Überblick. Sie kategorisiert während der Fahrt Objekte im Umfeld des Fahrzeugs. Die künstliche Intelligenz muss ein Auto verlässlich von einem Menschen und eine Straße von einem Radweg unterscheiden können.
Die Computerlinguistik entwickelt Techniken, um Sprache möglichst umfassend zu verstehen. Eine Anwendung ist der Chatbot ChatGPT. Obwohl ChatGPT scheinbar intelligent auf Fragen antwortet, wiederholt es dieselben Fehler, die man auch im Internet findet. Das liegt daran, dass das Tool mit Texten trainiert wurde, die frei im Internet verfügbar sind. Der Algorithmus hinter ChatGPT neigt sogar dazu, zu halluzinieren, wenn man diesen mit immer neuen Fragen in die Ecke drängt. ChatGPT kann nicht über sich hinauswachsen oder sich verselbstständigen. Künstliche Intelligenzen wie ChatGPT kennen auch keine Regeln des Rechtsstaates oder der Menschenwürde.
Diskriminierende künstliche Intelligenzen
Der Einsatz von künstlicher Intelligenz wirft soziale, ethische und rechtliche Fragen auf. Als ein durch maschinelles Lernen trainiertes Computerprogramm die Qualität von Bewerbungsunterlagen beurteilen sollte, stellte sich heraus, dass der Algorithmus Frauen benachteiligte. Das lag nicht etwa an bösen Absichten der Autorinnen und Autoren des Codes, sondern daran, dass der Computer anhand früherer Bewerbungsverfahren lernte. Und diese beinhalten tatsächlich Beweise dafür, dass Frauen bei Bewerbungen gerade um höhere Positionen strukturell benachteiligt werden. Am Max-Planck-Institut für Intelligente Systeme und am Max-Planck-Institut für Softwaresysteme erforschen Teams um Bernhard Schölkopf und Krishna Gummadi warum manche Algorithmen diskriminieren und wie man das verhindern kann.
Ein Schritt wäre damit getan, wenn klar wäre, wie ein Programm überhaupt zu einer Entscheidung kommt. Dieses Verständnis von Ursache und Wirkung, das sich Kleinkinder ganz selbstverständlich aneignen, bringen Forschende am Max-Planck-Institut für Intelligente Systeme auch künstlicher Intelligenz bei.
Menschliche Werte und Regeln für künstliche Intelligenzen
Wer haftet, wenn ein autonom fahrendes Auto einen Menschen im Straßenverkehr erfasst und verletzt? Wie kam es dazu? War es eine Schieflage in den Daten, mit denen die künstliche Intelligenz trainiert wurde, die dazu führte, dass das Auto den Menschen übersah? Künstliche Intelligenzen haben keinen Sinn für gesellschaftliche Werte oder Gerechtigkeit. Rechtliche Rahmenbedingungen für solche Algorithmen sind in sensiblen Bereichen unausweichlich. Wie dürfen sich Roboter verhalten, die überlastetes Pflegepersonal unterstützen? Das klären Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Innovation und Wettbewerb.
Maschinelles Lernen lässt sich zweifellos für viele Zwecke einsetzen. Nicht immer steht der gesellschaftliche Mehrwert im Vordergrund. Künstliche Intelligenz ist in der Lage, im Handumdrehen Falschmeldungen zu generieren und diese zielgerichtet in sozialen Medien zu verbreiten. Am Max-Planck-Institut für Softwaresysteme erreichen Forschende mit künstlicher Intelligenz das Gegenteil. Ihr Verfahren erkennt Falschmeldungen effektiv. Auf ähnliche Weise finden Wissenschaftlerinnen und Wissenschaftler auch Hassbotschaften im Netz.