Auf diesem Bild werden zwei Köpfe schematisch dargestellt, die sich überlappen. Einer der Köpfe ist mit Schaltkreisen gefüllt. Eine Symbolbild für künstliche Intelligenz

Künstliche Intelligenz

Künstliche Intelligenz (oder KI) schlägt heute manchmal selbst Fachleute – und ist auf anderen Gebieten doch jedem Kleinkind unterlegen. Vor allem, wenn es um die Erkennung komplexer Muster in großen Datenmengen geht, ist künstliche Intelligenz kaum zu übertreffen. Sie erleichtert unser Leben in vielen Bereichen. Wenn sie Entscheidungen übernimmt, die sonst nur Menschen für Menschen treffen, kommt man an ethischen Überlegungen nicht vorbei.

<span><span>Können wir </span><span>KI Angst</span><span> machen?</span></span><span> </span>

Das Experiment  „Spook the Machine“  beginnt mehr

Präzise Diagnose von Kopf- und Halstumoren

Mit einem neuen Verfahren lässt sich prognostizieren, wie eine Krebserkrankung verlaufen wird mehr

Blaue futuristische Bedienoberfläche mit angezeigten vernetzten Daten von der Seite mit roten User-Icons

Forschende analysieren Desinformation in Sozialen Medien und entwickeln Wege, um Fakten und faire Dialoge im Netz zu fördern mehr

Mehr anzeigen
Präzise Diagnose von Kopf- und Halstumoren

Mit einem neuen Verfahren lässt sich prognostizieren, wie eine Krebserkrankung verlaufen wird mehr

Zwei Personen stehen links von einem Versuchsaufbau, ein Stab, der an einer karusellartigen Vorrichtung angebracht ist

Das neu entwickelte Roboterbein ist inspiriert von Lebewesen und springt wendiger und energieeffizienter über verschiedene Oberflächen als bisherige Roboter mehr

Porträtbilder der drei Preisträger: links Geordie Williamson (kurze graue Haare, weißes Hemd, blaues Jacket), in der Mitte Laura Waller (schulterlange braune Haare, türkisfarbene Bluse, dunkle Jacke), rechts Torsten Hoefler (Brille, kurze rote Haare, Schnur- und Kinnbart, weißes Hemd, schwarzes Jacket).

Geordie Williamson erhält den Max-Planck-Humboldt-Forschungspreis 2024, an Laura Waller und Torsten Hoefler gehen Max-Planck-Humboldt-Medaillen mehr

Mehr anzeigen
Blaue futuristische Bedienoberfläche mit angezeigten vernetzten Daten von der Seite mit roten User-Icons

Forschende analysieren Desinformation in Sozialen Medien und entwickeln Wege, um Fakten und faire Dialoge im Netz zu fördern mehr

Diese Illustration zeigt, Deep Visual Proteomics funktioniert. Sie kombiniert Mikroskopie und Bildanalyse mittels künstlicher Intelligenz mit hochempfindlicher Analyse aller Proteine eines Gewebes.

Wodurch und wann entsteht Krebs? Warum gibt es gutartige oder bösartige Tumore und was macht sie bösartig? Der Forschungsgruppe vom Matthias Mann am Max-Planck-Institut für Biochemie ist es gelungen, eine neue Art der Diagnose zu entwickeln, mit der sich Antworten auf diese Fragen finden lassen. mehr

Forschungshighlights 2023

Forschungshighlights 2023

19. Dezember 2023

Ein Rückblick auf ein abwechslungsreiches Forschungsjahr mehr

Mehr anzeigen
“Der wilde Roboter” im Science-Check

Kann ein KI-gesteuerter Roboter in der Natur alleine „überleben“, wie im neuen Kinofilm „Der wilde Roboter“? Um diese Frage zu beantworten, haben wir Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen besucht mehr

So lernt künstliche Intelligenz

Intelligente Roboter, Chatbots wie ChatGPT oder Bildgeneratoren wie Midjourney: Was ist KI überhaupt? Wie funktioniert maschinelles Lernen und wie wird an ihr geforscht? Michael Mühlebach vom Max-Planck-Institut für intelligente Systeme in Tübingen beantwortet die Fragen von YouTuber DoktorWhatson mehr

Gibt es selbstbewusste KI?

Annika Buchholz vom Max-Planck-Institut für intelligente Systeme und YouTuber Doktor Whatson sprechen über die Wissenschaft im SciFi-Thriller "Ex Machina": Kann eine Künstliche Intelligenz Bewusstsein besitzen? Wie realistisch wird Robotik dargestellt? Der Film im wissenschaftlichen Fakten-Check mehr

Mehr anzeigen
Pascal Langenbach

Eine Künstliche Intelligenz, die Flüchtlinge auf Kommunen verteilt, Zulassungen zur Uni prüft oder das Go für Polizeieinsätze gibt? Pascal Langenbach forscht dazu, wie fair wir es finden, wenn Maschinen wichtige Entscheidungen treffen mehr

Was kann künstliche Intelligenz?

Wie künstliche Intelligenz helfen kann, Menschen vor einer Psychose zu bewahren, wie man ihr beibringt, wie ein Mensch zu denken, und ob Maschinen Moral haben können – darum geht es in der aktuellen Podcast-Folge des Forschungsquartetts. mehr

Ein kurzer KI-Kompass

Künstliche Intelligenz begegnet immer mehr Menschen in ihrem Alltag und in den Medien. Laut einer Bitcom Umfrage unter etwa 1000 Personen, geben 95 Prozent an, schon von künstlicher Intelligenz gehört zu haben. Aber nur mehr als die Hälfte von ihnen traut sich zu zu erklären, was hinter dem Begriff steckt. In einer datengetriebenen Welt wird künstliche Intelligenz eine immer größere Rolle spielen. Was kann künstliche Intelligenz und wo liegen ihre Grenzen? 

Was künstliche Intelligenz heute leistet, ist nach menschlichen Maßstäben eine extreme Inselbegabung. Sie ist als Werkzeug für spezielle Anwendungen zu verstehen. Die Aufgaben, auf die sie trainiert wurde, bewältigt sie meist schneller und in der Regel zuverlässiger als ein Mensch. Die mathematischen Algorithmen, mit denen künstliche Intelligenz arbeitet, kategorisieren Bilder, sortieren die Ergebnisse von Suchanfragen im Internet oder priorisieren den Nachrichtenstrom in sozialen Medien. Künstliche Intelligenz hält Einzug in unseren Alltag, oft ohne dass wir es merken.

Wissenschaftlerinnen und Wissenschaftler der Max-Planck-Gesellschaft entwickeln Algorithmen des maschinellen Lernens für neue Anwendungen weiter. Sie loten aus, unter welchen Randbedingungen diese auch dort eingesetzt werden können, wo ihre Entscheidungen weitreichende Konsequenzen für den Menschen haben. Und sie untersuchen, wie sich Menschen in Entscheidungen von Algorithmen einbinden lassen. Sie zeigen somit auf verschiedenen Ebenen die Möglichkeiten auf, die sich bei der Nutzung von künstlicher Intelligenz ergeben. Und sie schaffen eine Grundlage, auf der die Gesellschaft entscheiden kann, wie sie mit den Chancen und Risiken von KI als Werkzeug umgehen will. Doch zunächst ein Überblick über künstliche Intelligenz und ihre vielfältigen Anwendungen:

Wenn Maschinen mitmischen
Am Max-­Planck-­Institut für Bildungsforschung in Berlin untersucht Iyad Rahwan mit seinem Team, wie Menschen sich verhalten, wenn sie mit intelligenten Maschinen zu tun haben, und was sie von ihrem künstlichen Gegenüber erwarten mehr

KI und Klimaforschung

Auch in der Wissenschaft kommt künstliche Intelligenz zum Einsatz. Datenströme werden schnell zu umfangreich, als dass sie eine Person oder ein einzelner Computer analysieren könnte. Künstliche Intelligenz hingegen erkennt in kurzer Zeit ganze Muster und Zusammenhänge. Ein Beispiel sind Petabytes an Klima- und Erdbeobachtungsdaten. Darin verborgen: Antworten auf grundlegende und existenzielle Fragen der Menschheit. Wann und warum treten Extremwetterereignisse auf? Welche Kipppunkte hat unser hochkomplexes Erdsystem und unter welchen Umständen werden sie überschritten?

Vorhersehbarer Klimastress
Künstliche Intelligenz hilft, meteorologische Extremereignisse und ihre Folgen vorherzusagen mehr

KI und ChatGPT

Neuere Entwicklungen von Algorithmen der künstlichen Intelligenz erlauben sogar, Texte zu übersetzen oder, wie beispielsweise mit ChatGPT, einen Dialog mit Internetnutzerinnen und -nutzern zu führen. Die Antworten von ChatGPT beruhen dabei ausschließlich auf solchen Informationen und Textbausteinen, die im Internet frei verfügbar sind. Die Stärke des Dialogsystems liegt in dessen Natur als Werkzeug. Der Umgang damit will gelernt sein. ChatGPT fasst tausende Zeilen Text in Sekundenbruchteilen zusammen, viel schneller als ein Mensch es könnte. Für Aufgaben außerhalb ihres Spezialgebietes, ist eine künstliche Intelligenz wie ChatGPT unbrauchbar.

Zudem ist oft nicht nachvollziehbar, wie solche Algorithmen zu ihren Einschätzungen und Antworten kommen. Das liegt nicht zuletzt daran, dass sie die Zusammenhänge, die sie aufdecken, selbst nicht verstehen, während schon kleine Kinder ein Grundverständnis von der Welt um sich herum haben. Der Begriff der Intelligenz ist daher mit Vorsicht zu genießen. Was damit in den meisten Fällen gemeint ist, ist das sogenannte maschinelle Lernen, ein Teilbereich der künstlichen Intelligenz.  

Psychologischer Blick auf künstliche Intelligenz
Forscher testen die kognitiven Fähigkeiten des Sprachmodells GPT-3 mehr
„Künstliche Intelligenz ist nicht neugierig“
Wie bekommt man einen Algorithmus dazu, dass er die Welt erkundet, auch wenn es dafür keine unmittelbare Belohnung gibt?  Eric Schulz, der am Max-Planck-Institut für biologische Kybernetik in Tübingen forscht, nutzt kognitive Psychologie um Künstliche Intelligenzen zu erforschen mehr

Was ist künstliche Intelligenz?

Das menschliche Gehirn zeichnet sich dadurch aus, dass es unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verknüpft. Dadurch können wir Geschehnisse in unserer Umwelt einordnen und vorausschauend denken. Ganz anders die künstliche Intelligenz. Sie verwertet Daten, um eine Vorhersage zu treffen oder eine bestimmte Antwort zu geben.

Künstliche Intelligenz, die Probleme allgemeiner Art mit gleichen oder besseren intellektuellen Fähigkeiten als der Mensch löst, findet man höchstens in der Science Fiction Literatur. Die künstlichen Intelligenzen oder besser die Algorithmen des maschinellen Lernens, die Mediennutzerinnen und -nutzer bereits verwenden oder die in der Forschung entwickelt werden, lösen nur bestimmte Probleme. Beispiele aus unserem Alltag sind ChatGPT, Assistenten wie Siri oder Alexa oder Programme in der Medizin, die Tumore auf Ultraschallbildern erkennen, die selbst erfahrene Ärztinnen und Ärzte nur schwer interpretieren können.

Oft bietet es sich an, dem Computer Regeln beizubringen, nach denen er ein Problem lösen soll. Abgesehen von Spielen wie Schach, wird diese Form aber kaum angewandt. In vielen Fällen nutzt man eine künstliche Intelligenz genau aus dem Grund, weil es unmöglich ist, alle Regeln im Voraus zu kennen und abzudecken. Stattdessen erzielten Forschende in den letzten Jahren rasante Fortschritte mit selbstlernenden Programmen des maschinellen Lernens. 

Sigmund Freud beugt über einer Liege im Behandlungszimmer und manipuliert an einem Torso eines Roboters
Seit der Veröffentlichung von ChatGPT Ende 2022 wird intensiv darüber diskutiert, ob die künstliche Intelligenz bereits menschenähnliche Denkfähigkeiten besitzt. Eric Schulz vom Max-Planck-Institut für biologische Kybernetik in Tübingen untersucht mithilfe psychologischer Tests, ob dieser Algorithmus Anzeichen einer allgemeinen Intelligenz aufweist. mehr

Wie geht maschinelles Lernen?

Intelligente Roboter, Chatbots, wie ChatGPT oder Bildgeneratoren wie Midjourney &ndash; auch wenn Künstliche Intelligenz in aller Munde ist: Was ist KI, wie funktioniert so ein Chatbot und was hat das Moravecsche Paradox damit zu tun?

So lernt künstliche Intelligenz

Intelligente Roboter, Chatbots, wie ChatGPT oder Bildgeneratoren wie Midjourney – auch wenn Künstliche Intelligenz in aller Munde ist: Was ist KI, wie funktioniert so ein Chatbot und was hat das Moravecsche Paradox damit zu tun?
https://www.youtube.com/watch?v=dFReVjQMF6U

Ein Programm lernt auf verschiedene Arten: unüberwacht, überwacht oder bestärkend. Beim unüberwachten Lernen sucht der Computer ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden in Daten. So finden Forschende Muster in komplexen Datensätzen, die sonst verborgen bleiben. Ein Beispiel hierfür sind Klimadaten, Bodenproben aus dem Alpenvorland oder Satellitenbilder von tauenden Permafrostböden in Sibirien. Das Ziel: zu verstehen, wie und warum sich das veränderte Klima auf Ökosysteme auswirkt. Im Laufe der COVID-19 Pandemie füllten sich die Datenzentren mit einer Fülle von Informationen über verschiedene und bisher unbekannte Krankheitsverläufe. Ein Team am Max-Planck-Institut für Intelligente Systeme entwickelte ein auf maschinellem Lernen beruhendes Verfahren und ermittelte aus diesen Daten ein Sterblichkeitsrisiko für das neuartige Virus. Eine andere Anwendung für einen unüberwacht lernenden Algorithmus ist die menschliche Psyche. So vielfältig Symptome wie Schlappheit oder Dünnhäutigkeit sind, so schwierig ist die Diagnose einer Depression. Am Max-Planck-Institut für Psychiatrie haben Forscherinnen und Forscher medizinische Daten von Patientinnen und Patienten mit maschinellem Lernen durchforstet. Das Ziel: eventuelle psychische Erkrankungen früh erkennen.

Beim überwachten maschinellen Lernen erhält der Algorithmus ein klares Ziel. Er soll zum Beispiel erkennen, welche Tierart auf einem beliebigen Tierbild zu erkennen ist. Dies ist ein klassisches Beispiel der Computer-Vision. Zuvor müssen Menschen den Algorithmus mit so vielen Beispielen wie möglich trainieren. Bild für Bild teilen sie dem Computer mit, welches Bild eine Katze oder welches einen Hund zeigt. Während der Mensch ein Tier sofort an Fell, Augen, Ohren, Schwanz oder Zähnen erkennt, wird der fertig trainierte Algorithmus dieselbe Aufgabe anhand von Merkmalen erfüllen, die für uns Menschen schwer einsehbarer sind.

Selbst eine künstliche Intelligenz mit einer vermeintlich einfachen Aufgabe, irrt sich. Auf einem Foto, das eindeutig eine Katze zeigt, erkannte der Algorithmus einen Hund. Möglicherweise bilden Schwanz und Kopf der Katze gemeinsam eine ähnliche Form, wie zwei abstehende, spitze Hundeohren. Der Grund für die Verwechslung ist eine Schieflage in den Trainingsdaten: Der Computer wurde vor allem mit Bildern von Hunden trainiert, deren Ohren deutlich zu erkennen sind und spitz abstehen. Hätte der Algorithmus eine ausgewogenere Auswahl an Bildern als Anhaltspunkte erhalten, wäre der Fehler womöglich nicht passiert. Auch wenn man einfach nur mehr Fotos zum Trainieren verwendet hätte, wäre die Trefferquote insgesamt besser ausgefallen. Nach dem gleichen Prinzip funktionieren Übersetzungsprogramme, Spracherkennungssoftwares oder Programme, die unsere Handschrift erkennen. Maschinelles Lernen ist also verbunden mit einem erheblichen Aufwand für Forschende, mit großen Datenmengen und enormer Rechenleistung. Ob sich der Aufwand lohnt, hängt vom Zweck ab.

In den Bereichen, in denen sich Regeln definieren lassen, hilft das sogenannte bestärkende Lernen. Fährt ein autonomes Fahrzeug beispielsweise im vollen Tempo über eine rote Ampel, ist das eine unerlaubte Handlung, die der eingebaute Computercode beim nächsten Mal korrigieren muss. Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik erforschen bestärkendes Lernen in einem weniger kritischen Bereich. Sie bringen einem Roboter die flüssigen und treffsicheren Bewegungen eines Tischtennisspielers bei. So wird dem Roboter freie Hand gelassen, wie er einen Tischtennisschläger positioniert. Hauptsache der Schläger trifft den Ball.

Zwei Hände unten links und oben rechts mit blauen Gummihandschuhen. Die obere Hand hält einen stiftartigen Greifer, an dessen Kopf ein Probenröhrchen mit einer orangen Kappe hängt, das Blutplasma enthält. Die untere Hand hält einen Träger mit weiteren Probenröhrchen.
Mithilfe einer einzigen Infrarotlichtmessung und maschinellem Lernen lassen sich unter anderem Stoffwechselstörungen und Bluthochdruck erkennen mehr
Diese Illustration zeigt, Deep Visual Proteomics funktioniert. Sie kombiniert Mikroskopie und Bildanalyse mittels künstlicher Intelligenz mit hochempfindlicher Analyse aller Proteine eines Gewebes.
Wodurch und wann entsteht Krebs? Warum gibt es gutartige oder bösartige Tumore und was macht sie bösartig? Der Forschungsgruppe vom Matthias Mann am Max-Planck-Institut für Biochemie ist es gelungen, eine neue Art der Diagnose zu entwickeln, mit der sich Antworten auf diese Fragen finden lassen. mehr
Eine Software scannt die Psyche
Nur schlapp oder schon depressiv? Introvertiert oder autistisch? Fantasievoll oder schizophren? Die Symptome psychiatrischer Erkrankungen sind nicht immer eindeutig. Für die Früherkennung setzt Nikolaos Koutsouleris, Fellow am Max-Planck-Institut für Psychiatrie, deshalb auch auf künstliche Intelligenz mehr
Autos mit eingezeichneten blauen Umgrenzungen unter grünen Bäumen
Die ersten selbstfahrenden Autos sind bereits im Einsatz. Allerdings ist bis- her weder die Technik ausgereift, noch sind alle ethischen Fragen dazu geklärt. Außerdem ist es höchste Zeit, darüber  nachzudenken, wie die neue Techno- logie künftig zu mehr Nachhaltigkeit im Verkehr beitragen kann. mehr

Künstliche Intelligenz erstaunt und halluziniert

Tritt künstliche Intelligenz in den Kontakt mit dem Menschen oder ist sie an Entscheidungen beteiligt, ist Augenmaß gefragt. Zwei Beispiele aus der Computer-Vision: Forschende des Max-Planck-Instituts für Informatik haben eine Software entwickelt, die die Lippenbewegungen einer Person in einem Video an eine vorgegebene Tonspur anpasst. Dieses Werkzeug ist wertvoll für die Sprachsynchronisation von Filmen. Eine andere Software aus dem selben Haus (GragGan) erlaubt es Bildvorlagen gezielt zu bearbeiten, also etwa den Kopf eines aus einer bestimmten perspektive fotografierten Tieres per Mauszeiger in alle Richtungen zu drehen. Solche Algorithmen sind zugleich manipulativ und dürfen nicht missbraucht werden. Bei selbstfahrenden Autos geht es im Zweifelsfall sogar um Leben und Tod. Eine Software des Max-Planck-Instituts für Intelligente Systeme behält auch in unübersichtlichen Verkehrssituationen den Überblick. Sie kategorisiert während der Fahrt Objekte im Umfeld des Fahrzeugs. Die künstliche Intelligenz muss ein Auto verlässlich von einem Menschen und eine Straße von einem Radweg unterscheiden können. 

Die Computerlinguistik entwickelt Techniken, um Sprache möglichst umfassend zu verstehen. Eine Anwendung ist der Chatbot ChatGPT. Obwohl ChatGPT scheinbar intelligent auf Fragen antwortet, wiederholt es dieselben Fehler, die man auch im Internet findet. Das liegt daran, dass das Tool mit Texten trainiert wurde, die frei im Internet verfügbar sind. Der Algorithmus hinter ChatGPT neigt sogar dazu, zu halluzinieren, wenn man diesen mit immer neuen Fragen in die Ecke drängt. ChatGPT kann nicht über sich hinauswachsen oder sich verselbstständigen. Künstliche Intelligenzen wie ChatGPT kennen auch keine Regeln des Rechtsstaates oder der Menschenwürde.

Vorher-nachher-Darstellung der Bildbearbeitung mit DragGan an drei Beispielen: Der Kopf eines liegenden Löwen, der die Betrachter direkt anschaut, wird vom Betrachter aus nach rechts gedreht, und sein Maul wird geöffnet. In einem Bild von einem Katzenkopf, der den Betrachter direkt anschaut, wird das von diesem aus rechte Auge geschlossen. Der Gipfel eine Berges in einer gebirgskette, wird so erhöht, dass der Berg sich über knapp die halbe Bildhöhe erstreckt.
DragGan ermöglicht es, von einer KI erzeugte Bilder gezielt zu bearbeiten mehr
Autos gehen die Augen auf
Damit Autos autonom fahren können, müssen Computer unübersichtliche Verkehrssituation mindestens genauso gut beurteilen wie der Mensch. Dafür entwickeln Andreas Geiger und seine Mitarbeiter:innen am Max-Planck-Institut für Intelligente Systeme in Tübingen die nötige Software. mehr
Wie gut ist das Sprachmodell GPT3?
Begeht die KI auch manchmal Denkfehler? Darüber sprechen wir in der neuen Postcastfolge „Auf den Grund gegangen“ mit Marcel Binz vom Max-Planck-Institut für biologische Kybernetik. mehr

Diskriminierende künstliche Intelligenzen

Der Einsatz von künstlicher Intelligenz wirft soziale, ethische und rechtliche Fragen auf. Als ein durch maschinelles Lernen trainiertes Computerprogramm die Qualität von Bewerbungsunterlagen beurteilen sollte, stellte sich heraus, dass der Algorithmus Frauen benachteiligte. Das lag nicht etwa an bösen Absichten der Autorinnen und Autoren des Codes, sondern daran, dass der Computer anhand früherer Bewerbungsverfahren lernte. Und diese beinhalten tatsächlich Beweise dafür, dass Frauen bei Bewerbungen gerade um höhere Positionen strukturell benachteiligt werden. Am Max-Planck-Institut für Intelligente Systeme und am Max-Planck-Institut für Softwaresysteme erforschen Teams um Bernhard Schölkopf und Krishna Gummadi warum manche Algorithmen diskriminieren und wie man das verhindern kann.

Ein Schritt wäre damit getan, wenn klar wäre, wie ein Programm überhaupt zu einer Entscheidung kommt. Dieses Verständnis von Ursache und Wirkung, das sich Kleinkinder ganz selbstverständlich aneignen, bringen Forschende am Max-Planck-Institut für Intelligente Systeme auch künstlicher Intelligenz bei.

Auf Fairness programmiert
In Zukunft werden Computer immer häufiger über Menschen entscheiden – sei es bei der Kreditvergabe oder bei der Bewertung von Bewerbern. Doch automatische Systeme, die dafür bereits eingesetzt werden, diskriminieren immer wieder einmal einzelne Personengruppen mehr
Nicht ohne Grund !
Künstliche Intelligenz erkennt Muster schon lange viel besser als wir. Um aber ihren Namen wirklich zu verdienen, müsste sie auch kausale Zusammenhänge verstehen. Am Max-Planck-Institut für Intelligente Systeme in Tübingen arbeiten Forschende genau daran mehr
Besuch bei Krishna Gummadi
Als Grundschüler lernte Krishna Gummadi, neben der Schule, Musikinstrumente zu spielen und zu programmieren. Die Musik gab er bald auf, das Programmieren wurde seine Berufung. Heute erforscht er als Direktor am Saarbrücker MaxPlanck-Institut für Softwaresysteme unter anderem, warum künstliche Intelligenz oftmals genauso diskriminierende Entscheidungen trifft wie Menschen und wie sich das verhindern lässt. mehr

Menschliche Werte und Regeln für künstliche Intelligenzen

Wer haftet, wenn ein autonom fahrendes Auto einen Menschen im Straßenverkehr erfasst und verletzt? Wie kam es dazu? War es eine Schieflage in den Daten, mit denen die künstliche Intelligenz trainiert wurde, die dazu führte, dass das Auto den Menschen übersah? Künstliche Intelligenzen haben keinen Sinn für gesellschaftliche Werte oder Gerechtigkeit. Rechtliche Rahmenbedingungen für solche Algorithmen sind in sensiblen Bereichen unausweichlich. Wie dürfen sich Roboter verhalten, die überlastetes Pflegepersonal unterstützen? Das klären Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Innovation und Wettbewerb.

Maschinelles Lernen lässt sich zweifellos für viele Zwecke einsetzen. Nicht immer steht der gesellschaftliche Mehrwert im Vordergrund. Künstliche Intelligenz ist in der Lage, im Handumdrehen Falschmeldungen zu generieren und diese zielgerichtet in sozialen Medien zu verbreiten. Am Max-Planck-Institut für Softwaresysteme erreichen Forschende mit künstlicher Intelligenz das Gegenteil. Ihr Verfahren erkennt Falschmeldungen effektiv. Auf ähnliche Weise finden Wissenschaftlerinnen und Wissenschaftler auch  Hassbotschaften im Netz.

Regeln für Roboter
Pflegeroboter könnten demnächst bei uns zu Hause einziehen. Wie sie sich dabei verhalten sollen, ist noch nicht verhandelt. Am Max-Planck-Institut für Innovation und Wettbewerb in München beschäftigt sich Axel Walz mit der Frage, wie man mit rechtlichen Mitteln dazu beitragen kann, dass künstliche Intelligenz sich an menschliche Werte hält mehr
Frühwarnsystem für Falschmeldungen
Fake News in Sozialen Medien effizienter und treffgenauer bekämpfen: Manuel Gomez Rodriguez vom Max-Planck-Institut für Softwaresysteme kombiniert Verfahren der Künstlichen Intelligenz mit der Auswertung von Signalen, in denen sich menschliches Urteil widerspiegelt mehr
Zur Redakteursansicht