Ein Symbolbild für künstliche Intelligenz

Künstliche Intelligenz

Künstliche Intelligenz (oder KI) schlägt heute manchmal selbst Fachleute – und ist auf anderen Gebieten doch jedem Kleinkind unterlegen. Vor allem, wenn es um die Erkennung komplexer Muster in großen Datenmengen geht, ist künstliche Intelligenz kaum zu übertreffen. Sie erleichtert unser Leben in vielen Bereichen, birgt aber auch Gefahren. Wenn sie Entscheidungen übernimmt, die sonst nur Menschen für Menschen treffen, kommt man an ethischen Überlegungen nicht vorbei.

Ausweg aus dem Collingridge-Dilemma

Das Collingridge-Dilemma beschreibt eine Herausforderung, die uns alle betrifft: Solange wir eine Technologie noch gestalten können, sind ihre gesellschaftlichen Folgen meist unklar. Die „Science-Fiction-Science-Methode“ ermöglicht einen Ausweg aus dem Dilemma mehr

Porträt von Krishna Gummadi mit randloser eckiger Brille und blauem Jacket, das Kinn auf die Hand gestützt.

Krishna Gummadi zur Handlungsfähigkeit von künstlicher Intelligenz, KI-Agenten und möglichen gesellschaftlichen Auswirkungen mehr

Person in blauer Jacke prüft Smartwatch im Freien.

Smart Watches, Apps und Chatbots: In Zukunft lassen sich digitale Helfer nicht mehr wegdenken. Worauf es ankommen wird mehr

Mehr anzeigen
Grafik mit AI-Symbol in der Mitte, umgeben von digitalen Schaltkreisen. Rechts oben eine Abschlussmütze in einem Kreis.

Die neue School soll fortgeschrittene KI-Methoden für die Grundlagenforschung in den Lebenswissenschaften entwickeln. Das Konzept wurde unter koordinierender Leitung von Karsten Borgwardt, Direktor am Max-Planck-Institut für Biochemie, entwickelt mehr

Nahaufnahme von mehreren Händen, die Mikrofone in verschiedenen Farben halten, darunter Blau, Orange und Schwarz, bei einer Pressekonferenz.

Der Rechtswissenschaftler Josef Drexl fordert ein neues Vergütungsmodell zum Schutz vor KI-Verdrängung mehr

Eine Gruppe weißer Figuren tanzt in dynamischen Posen auf einem dunklen Hintergrund, wobei jede Figur eine einzigartige Haltung einnimmt. Einige scheinen sich in Bewegung zu befinden, während andere still stehen. Lichtreflexe sind um die Figuren herum sic

Der US-amerikanische Spieleentwickler übernimmt das KI-Startup Meshcapade und etabliert einen Standort im Technologie-Hub Cyber Valley mehr

Mehr anzeigen
Porträt von Krishna Gummadi mit randloser eckiger Brille und blauem Jacket, das Kinn auf die Hand gestützt.

Krishna Gummadi zur Handlungsfähigkeit von künstlicher Intelligenz, KI-Agenten und möglichen gesellschaftlichen Auswirkungen mehr

Person in blauer Jacke prüft Smartwatch im Freien.

Smart Watches, Apps und Chatbots: In Zukunft lassen sich digitale Helfer nicht mehr wegdenken. Worauf es ankommen wird mehr

Mehr anzeigen
Ausweg aus dem Collingridge-Dilemma

Das Collingridge-Dilemma beschreibt eine Herausforderung, die uns alle betrifft: Solange wir eine Technologie noch gestalten können, sind ihre gesellschaftlichen Folgen meist unklar. Die „Science-Fiction-Science-Methode“ ermöglicht einen Ausweg aus dem Dilemma mehr

“Der wilde Roboter” im Science-Check

Kann ein KI-gesteuerter Roboter in der Natur alleine „überleben“, wie im neuen Kinofilm „Der wilde Roboter“? Um diese Frage zu beantworten, haben wir Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen besucht mehr

So lernt künstliche Intelligenz

Intelligente Roboter, Chatbots wie ChatGPT oder Bildgeneratoren wie Midjourney: Was ist KI überhaupt? Wie funktioniert maschinelles Lernen und wie wird an ihr geforscht? Michael Mühlebach vom Max-Planck-Institut für intelligente Systeme in Tübingen beantwortet die Fragen von YouTuber DoktorWhatson mehr

Mehr anzeigen
Nikolaos Koutsouleris

Psychosen gehören zu den schwerwiegendsten psychischen Erkrankungen, Früherkennung ist hier besonders wichtig. Nikolaos Koutsouleris hat mithilfe von KI ein Tool entwickelt, das die Diagnostik genauer machen soll mehr

Sabine Gless spricht in diesem Podcast über Grenzen und Möglichkeiten von KI im Strafprozess.

Wenn Maschinen zu Zeugen werden: Sabine Gless vom Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht spricht in diesem Podcast über die Grenzen und Möglichkeiten von KI im Strafprozess mehr

Clara Schneidewind forscht am Max-Planck-Institut für Sicherheit und Privatsphäre über Kryptowährungen

Für die einen ist Kryptowährung die Zukunft, für die anderen ein dubioses Spekulationsobjekt. Ein Gespräch mit Clara Schneidewind vom Max-Planck-Institut für Sicherheit und Privatsphäre über Blockchain-Technologien, was ein Dorf in Österreich damit zu tun hat und warum sie selbst noch nie in Bitcoin investiert hat mehr

Mehr anzeigen

Licht- und Schattenseiten von KI

Die meisten werden zustimmen, dass Künstliche Intelligenz (KI) in der heutigen Zeit eine sehr große Rolle spielt, immerhin taucht der Begriff beinahe überall auf. Trotzdem ist nicht allen klar, was dahinter steckt. Die Reaktionen auf KI-Tools reichen von Begeisterung bis großer Sorge. Zeit für eine Einordnung: Was also kann künstliche Intelligenz und wo liegen ihre Grenzen? 

Was künstliche Intelligenz leistet, ist nach menschlichen Maßstäben oft eine extreme Inselbegabung, ein Werkzeug für spezielle Anwendungen. Das heißt aber nicht, dass KI-Modelle sich nicht in kürzester Zeit einen Überblick über komplexe Datenmengen verschaffen und darin Muster erkennen können. KI-Agenten, die den hauseigenen digitalen Arbeitsplatz managen sollen, scheinen gar Weltmeister im Multitasking und versendeten auch schonmal unliebsame Emails, als die Grundeinstellungen ihnen zu viel Freiraum gaben. Trotzdem warnen Expertinnen und Experten: intelligent ist das noch lange nicht. Hinter dem, was wir als künstliche Intelligenz bezeichnen, stecken immer noch Algorithmen des Maschinellen Lernens: Für bestimmte Aufgaben trainiert, bewältigt sie diese meist schneller und in der Regel zuverlässiger als ein Mensch. Die mathematischen Algorithmen kategorisieren Bilder, priorisieren den Nachrichtenstrom in sozialen Medien oder liefern Antworten bei Suchanfragen im Netz. Mit einer aktiven „Suche“ hat das aber nichts mehr zu tun. Während Menschen bisher selbst entscheiden mussten, welche Suchergebnisse relevant und sinnig sind, macht die Antwort der KI in vielen Fällen zwar Sinn, ist aber leider in bis zu 40 Prozent der Fälle falsch.

Wissenschaftlerinnen und Wissenschaftler der Max-Planck-Gesellschaft entwickeln Algorithmen des maschinellen Lernens für neue Anwendungen weiter. Sie loten aus, unter welchen Randbedingungen diese auch dort eingesetzt werden können, wo ihre Entscheidungen weitreichende Konsequenzen für den Menschen haben. Und sie untersuchen, wie sich Menschen in Entscheidungen von Algorithmen einbinden lassen. Die involvierten Max-Planck-Institute erforschung also sowohl die Chancen als auch Gefahren von künstlicher Intelligenz. Ein großer neuer Zweig ist der Einsatz von Datenwissenschaften im Dienst der Gesellschaft. Doch zunächst ein Überblick über künstliche Intelligenz und ihre vielfältigen Anwendungen:

Ist ein KI-gesteuerter Roboter intelligent, könnte er sogar alleine in der Natur "überleben" wie im Kinofilm "Der wilde Roboter"? ‪@DoktorWhatson‬ (Cedric Engels) hat Wissenschaftler*innen am Max-Planck-Institut für Intelligente Systeme in Tübingen besucht, um diese Frage zu beantworten. 

General AI - die ultimative künstliche Intelligenz?

Ist ein KI-gesteuerter Roboter intelligent, könnte er sogar alleine in der Natur "überleben" wie im Kinofilm "Der wilde Roboter"? ‪@DoktorWhatson‬ (Cedric Engels) hat Wissenschaftler*innen am Max-Planck-Institut für Intelligente Systeme in Tübingen besucht, um diese Frage zu beantworten. 
https://www.youtube.com/watch?v=VIJPvPB2_nA
Roboterhand platziert Auto in urbaner Verkehrsszene mit Fußgängern und Radfahrern.
Am Max-­Planck-­Institut für Bildungsforschung in Berlin untersucht Iyad Rahwan mit seinem Team, wie Menschen sich verhalten, wenn sie mit intelligenten Maschinen zu tun haben, und was sie von ihrem künstlichen Gegenüber erwarten mehr

Was Chatbots leisten 

KI-Chatbots wie ChatGPT werden mit riesigen Mengen an Text aus dem Internet trainiert. Das Problem: Im Internet findet man nicht nur qualitativ hochwertigen Text. Daher reicht es nicht aus, sie allein mit diesen Daten zu trainieren.

Wie wird ChatGPT „schlauer“?

KI-Chatbots wie ChatGPT werden mit riesigen Mengen an Text aus dem Internet trainiert. Das Problem: Im Internet findet man nicht nur qualitativ hochwertigen Text. Daher reicht es nicht aus, sie allein mit diesen Daten zu trainieren.
https://www.youtube.com/watch?v=Kj-cBF3hJPY

Das menschliche Gehirn zeichnet sich dadurch aus, dass es unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verknüpft. Dadurch können wir Geschehnisse in unserer Umwelt einordnen, vorausschauend denken und kommunizieren. Künstliche Intelligenz, die agiert, wie ein Mensch, findet man aber höchstens in der Science Fiction Literatur. 

In der Realität ist und bleibt KI ein Werkzeug, dessen Umgang verstanden sein muss. Sprachmodelle wie ChatGPT verarbeiten Text. Die KI-generierte Antwort auf eine Frage ist eine auf Wahrscheinlichkeiten basierende Aneinanderreihung von Wörtern. Denken, wie ein Mensch, kann ChatGPT nicht. Die Antworten von ChatGPT beruhen dabei ausschließlich auf solchen Informationen und Textbausteinen, die im Internet frei verfügbar sind. Diese Trainingsdaten sind per Definition lückenhaft, daraus resultierende Aussagen nicht immer zutreffend, oft haluziniert. Trotzdem macht es den Anschein, als würde man sich mit einem Menschen unterhalten. 

Aber selten ist auch nachvollziehbar, wie solche Algorithmen zu ihren Einschätzungen und Antworten kommen. Das liegt nicht zuletzt daran, dass sie die Zusammenhänge, die sie aufdecken, selbst nicht verstehen, während schon kleine Kinder ein Grundverständnis von der Welt um sich herum haben. Der Begriff der Intelligenz ist daher mit Vorsicht zu genießen. Was damit in den meisten Fällen gemeint ist, ist das sogenannte maschinelle Lernen, ein Teilbereich der künstlichen Intelligenz.  

Person in blauer Jacke prüft Smartwatch im Freien.
Smart Watches, Apps und Chatbots: In Zukunft lassen sich digitale Helfer nicht mehr wegdenken. Worauf es ankommen wird
Digitaler Roboterkopf auf blauem, pixeligem Hintergrund.
Wie bekommt man einen Algorithmus dazu, dass er die Welt erkundet, auch wenn es dafür keine unmittelbare Belohnung gibt?  Eric Schulz, der am Max-Planck-Institut für biologische Kybernetik in Tübingen forscht, nutzt kognitive Psychologie um Künstliche Intelligenzen zu erforschen mehr
Sigmund Freud beugt über einer Liege im Behandlungszimmer und manipuliert an einem Torso eines Roboters
Seit der Veröffentlichung von ChatGPT Ende 2022 wird intensiv darüber diskutiert, ob die künstliche Intelligenz bereits menschenähnliche Denkfähigkeiten besitzt. Eric Schulz vom Max-Planck-Institut für biologische Kybernetik in Tübingen untersucht mithilfe psychologischer Tests, ob dieser Algorithmus Anzeichen einer allgemeinen Intelligenz aufweist. mehr

Medizinische Diagnosen und Klimaforschung mit unüberwachtem maschinellem Lernen

Intelligente Roboter, Chatbots, wie ChatGPT oder Bildgeneratoren wie Midjourney – auch wenn Künstliche Intelligenz in aller Munde ist: Was ist KI, wie funktioniert so ein Chatbot und was hat das Moravecsche Paradox damit zu tun?

So lernt künstliche Intelligenz

Intelligente Roboter, Chatbots, wie ChatGPT oder Bildgeneratoren wie Midjourney – auch wenn Künstliche Intelligenz in aller Munde ist: Was ist KI, wie funktioniert so ein Chatbot und was hat das Moravecsche Paradox damit zu tun?
https://www.youtube.com/watch?v=dFReVjQMF6U

Ein Programm lernt auf verschiedene Arten: unüberwacht, überwacht oder bestärkend. Beim unüberwachten Lernen sucht der Computer ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden in Daten. So finden Forschende Muster in komplexen Datensätzen, die sonst verborgen bleiben. Ein Beispiel hierfür sind Petabytes an Klima- und Erdbeobachtungsdaten. Darin verborgen: Antworten auf grundlegende und existenzielle Fragen der Menschheit. Wann und warum treten Extremwetterereignisse auf? Welche Kipppunkte hat unser hochkomplexes Erdsystem und unter welchen Umständen werden sie überschritten?

Ein weiteres Beispiel: die Covid-19 Pandemie. Datenzentren füllten sich seit dem ersten bekannten Fall mit einer Fülle von Informationen über verschiedene und bisher unbekannte Krankheitsverläufe. Ein Team am Max-Planck-Institut für Intelligente Systeme entwickelte ein auf maschinellem Lernen beruhendes Verfahren und ermittelte aus diesen Daten ein Sterblichkeitsrisiko für das neuartige Virus.

Eine andere Anwendung für einen unüberwacht lernenden Algorithmus ist die menschliche Psyche. So vielfältig Symptome wie Schlappheit oder Dünnhäutigkeit sind, so schwierig ist die Diagnose einer Depression. Am Max-Planck-Institut für Psychiatrie haben Forscherinnen und Forscher medizinische Daten von Patientinnen und Patienten mit maschinellem Lernen durchforstet. Das Ziel: eventuelle psychische Erkrankungen früh erkennen. Eine KI, die entsprechend trainiert wurde, erkennt auch Tumore auf Ultraschallbildern, die selbst erfahrenen Ärztinnen und Ärzten entgangen wären.

Brücke ohne Fluss: Während der Trockenheit im Jahr 2018 sank der Wasserstand vieler Gewässer wie etwa des Rheins drastisch. Wie hier bei Düsseldorf beeinträchtigte das auch die Binnenschifffahrt stark.
Künstliche Intelligenz hilft, meteorologische Extremereignisse und ihre Folgen vorherzusagen
Zwei Hände unten links und oben rechts mit blauen Gummihandschuhen. Die obere Hand hält einen stiftartigen Greifer, an dessen Kopf ein Probenröhrchen mit einer orangen Kappe hängt, das Blutplasma enthält. Die untere Hand hält einen Träger mit weiteren Probenröhrchen.
Mithilfe einer einzigen Infrarotlichtmessung und maschinellem Lernen lassen sich unter anderem Stoffwechselstörungen und Bluthochdruck erkennen mehr
Diese Illustration zeigt, Deep Visual Proteomics funktioniert. Sie kombiniert Mikroskopie und Bildanalyse mittels künstlicher Intelligenz mit hochempfindlicher Analyse aller Proteine eines Gewebes.
Wodurch und wann entsteht Krebs? Warum gibt es gutartige oder bösartige Tumore und was macht sie bösartig? Der Forschungsgruppe vom Matthias Mann am Max-Planck-Institut für Biochemie ist es gelungen, eine neue Art der Diagnose zu entwickeln, mit der sich Antworten auf diese Fragen finden lassen. mehr
Roboter betrachtet gespiegeltes Profil eines gebrochenen Gesichts.
Nur schlapp oder schon depressiv? Introvertiert oder autistisch? Fantasievoll oder schizophren? Die Symptome psychiatrischer Erkrankungen sind nicht immer eindeutig. Für die Früherkennung setzt Nikolaos Koutsouleris, Fellow am Max-Planck-Institut für Psychiatrie, deshalb auch auf künstliche Intelligenz mehr

Tierfotos kategorisieren und Bewerbungen screenen mit überwachtem maschinellem Lernen

Beim überwachten maschinellen Lernen erhält der Algorithmus ein klares Ziel. Er soll zum Beispiel erkennen, welche Tierart auf einem beliebigen Tierbild zu erkennen ist. Dies ist ein klassisches Beispiel der Computer-Vision. Zuvor müssen Menschen den Algorithmus mit so vielen Beispielen wie möglich trainieren. Bild für Bild teilen sie dem Computer mit, welches Bild eine Katze oder welches einen Hund zeigt. Während der Mensch ein Tier sofort an Fell, Augen, Ohren, Schwanz oder Zähnen erkennt, wird der fertig trainierte Algorithmus dieselbe Aufgabe anhand von Merkmalen erfüllen, die für uns Menschen schwer einsehbarer sind.

Aber auch die KI kann sich irren. Selbst eine künstliche Intelligenz mit einer vermeintlich einfachen Aufgabe, irrt sich. Auf einem Foto, das eindeutig eine Katze zeigt, erkannte der Algorithmus einen Hund. Möglicherweise bilden Schwanz und Kopf der Katze gemeinsam eine ähnliche Form, wie zwei abstehende, spitze Hundeohren. Der Grund für die Verwechslung ist eine Schieflage in den Trainingsdaten: Der Computer wurde vor allem mit Bildern von Hunden trainiert, deren Ohren deutlich zu erkennen sind und spitz abstehen. Hätte der Algorithmus eine ausgewogenere Auswahl an Bildern als Anhaltspunkte erhalten, wäre der Fehler womöglich nicht passiert. Ähnliche Schieflagen haben KIs, die eingesetzt werden, um Bewerbungen vorzusortieren. Maschinelles Lernen ist also verbunden mit einem erheblichen Aufwand für Forschende, mit großen Datenmengen und enormer Rechenleistung. 

Vorher-nachher-Darstellung der Bildbearbeitung mit DragGan an drei Beispielen: Der Kopf eines liegenden Löwen, der die Betrachter direkt anschaut, wird vom Betrachter aus nach rechts gedreht, und sein Maul wird geöffnet. In einem Bild von einem Katzenkopf, der den Betrachter direkt anschaut, wird das von diesem aus rechte Auge geschlossen. Der Gipfel eine Berges in einer gebirgskette, wird so erhöht, dass der Berg sich über knapp die halbe Bildhöhe erstreckt.
DragGan ermöglicht es, von einer KI erzeugte Bilder gezielt zu bearbeiten mehr

Autonomes Fahren mit bestärktem maschiellem Lernen

In den Bereichen, in denen sich Regeln definieren lassen, hilft das sogenannte bestärkende Lernen. Fährt ein autonomes Fahrzeug beispielsweise im vollen Tempo über eine rote Ampel, ist das eine unerlaubte Handlung, die der eingebaute Computercode beim nächsten Mal korrigieren muss. Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik erforschen bestärkendes Lernen in einem weniger kritischen Bereich. Sie bringen einem Roboter die flüssigen und treffsicheren Bewegungen eines Tischtennisspielers bei. So wird dem Roboter freie Hand gelassen, wie er einen Tischtennisschläger positioniert. Hauptsache der Schläger trifft den Ball.

Autos mit eingezeichneten blauen Umgrenzungen unter grünen Bäumen
Die ersten selbstfahrenden Autos sind bereits im Einsatz. Allerdings ist bis- her weder die Technik ausgereift, noch sind alle ethischen Fragen dazu geklärt. Außerdem ist es höchste Zeit, darüber  nachzudenken, wie die neue Techno- logie künftig zu mehr Nachhaltigkeit im Verkehr beitragen kann. mehr
Autos gehen die Augen auf
Damit Autos autonom fahren können, müssen Computer unübersichtliche Verkehrssituation mindestens genauso gut beurteilen wie der Mensch. Dafür entwickeln Andreas Geiger und seine Mitarbeiter:innen am Max-Planck-Institut für Intelligente Systeme in Tübingen die nötige Software. mehr

Künstliche Intelligenz birgt auch Gefahren

Tritt künstliche Intelligenz in den Kontakt mit dem Menschen oder ist sie an Entscheidungen beteiligt, ist Augenmaß gefragt. Zwei Beispiele aus der Computer-Vision: Forschende des Max-Planck-Instituts für Informatik haben eine Software entwickelt, die die Lippenbewegungen einer Person in einem Video an eine vorgegebene Tonspur anpasst. Dieses Werkzeug ist wertvoll für die Sprachsynchronisation von Filmen, aber auch der mögliche Missbrauch muss beachtet werden.

Die Computerlinguistik entwickelt Techniken, um Sprache möglichst umfassend zu verstehen. Eine Anwendung ist der Chatbot ChatGPT. Obwohl ChatGPT scheinbar intelligent auf Fragen antwortet, wiederholt es dieselben Fehler, die man auch im Internet findet. Das liegt daran, dass das Tool mit Texten trainiert wurde, die frei im Internet verfügbar sind. Der Algorithmus hinter ChatGPT neigt sogar dazu, zu halluzinieren, wenn man diesen mit immer neuen Fragen in die Ecke drängt. ChatGPT kann nicht über sich hinauswachsen oder sich verselbstständigen. Künstliche Intelligenzen wie ChatGPT kennen auch keine Regeln des Rechtsstaates oder der Menschenwürde.

Bei selbstfahrenden Autos geht es im Zweifelsfall sogar um Leben und Tod. Eine Software des Max-Planck-Instituts für Intelligente Systeme behält auch in unübersichtlichen Verkehrssituationen den Überblick. Sie kategorisiert während der Fahrt Objekte im Umfeld des Fahrzeugs. Die künstliche Intelligenz muss ein Auto verlässlich von einem Menschen und eine Straße von einem Radweg unterscheiden können. 

Mit dem Durchbruch immer besserer KI-Chatbot-Modelle ist ein kritischer Blick auf die Schattenseiten angebracht. Wie sicher sind unsere Daten? Wie kann Qualitätsjournalismus in Zeiten massenhafter Textgenerierung im Netz überleben? Und kann eine KI denken? Könnte sie sich auch selbstständig gegen uns Menschen richten? 

Nahaufnahme von mehreren Händen, die Mikrofone in verschiedenen Farben halten, darunter Blau, Orange und Schwarz, bei einer Pressekonferenz.
Der Rechtswissenschaftler Josef Drexl fordert ein neues Vergütungsmodell zum Schutz vor KI-Verdrängung
Stadtansicht bei Sonnenuntergang, beleuchtete Gebäude und Netzwerklinien am Himmel, die digitale Verbindungen darstellen
Das Science Policy Forum warnt davor, dass böswillige KI-„Schwärme“ einen öffentlichen Konsens vortäuschen könnten

Diskriminierende künstliche Intelligenzen

Der Einsatz von künstlicher Intelligenz wirft soziale, ethische und rechtliche Fragen auf. Als ein durch maschinelles Lernen trainiertes Computerprogramm die Qualität von Bewerbungsunterlagen beurteilen sollte, stellte sich heraus, dass der Algorithmus Frauen benachteiligte. Das lag nicht etwa an bösen Absichten der Autorinnen und Autoren des Codes, sondern daran, dass der Computer anhand früherer Bewerbungsverfahren lernte. Und diese beinhalten tatsächlich Beweise dafür, dass Frauen bei Bewerbungen gerade um höhere Positionen strukturell benachteiligt werden. Am Max-Planck-Institut für Intelligente Systeme und am Max-Planck-Institut für Softwaresysteme erforschen Teams um Bernhard Schölkopf und Krishna Gummadi warum manche Algorithmen diskriminieren und wie man das verhindern kann.

Ein Schritt wäre damit getan, wenn klar wäre, wie ein Programm überhaupt zu einer Entscheidung kommt. Dieses Verständnis von Ursache und Wirkung, das sich Kleinkinder ganz selbstverständlich aneignen, bringen Forschende am Max-Planck-Institut für Intelligente Systeme auch künstlicher Intelligenz bei.

Nicht ohne Grund !
Künstliche Intelligenz erkennt Muster schon lange viel besser als wir. Um aber ihren Namen wirklich zu verdienen, müsste sie auch kausale Zusammenhänge verstehen. Am Max-Planck-Institut für Intelligente Systeme in Tübingen arbeiten Forschende genau daran mehr
Auf Fairness programmiert
In Zukunft werden Computer immer häufiger über Menschen entscheiden – sei es bei der Kreditvergabe oder bei der Bewertung von Bewerbern. Doch automatische Systeme, die dafür bereits eingesetzt werden, diskriminieren immer wieder einmal einzelne Personengruppen mehr
 Mann in grünem Stuhl, gekreuzte Beine, neutraler Hintergrund.

Besuch bei Krishna Gummadi

31. Dezember 2022
Als Grundschüler lernte Krishna Gummadi, neben der Schule, Musikinstrumente zu spielen und zu programmieren. Die Musik gab er bald auf, das Programmieren wurde seine Berufung. Heute erforscht er als Direktor am Saarbrücker MaxPlanck-Institut für Softwaresysteme unter anderem, warum künstliche Intelligenz oftmals genauso diskriminierende Entscheidungen trifft wie Menschen und wie sich das verhindern lässt. mehr

Menschliche Werte und Regeln für künstliche Intelligenzen

Wer haftet, wenn ein autonom fahrendes Auto einen Menschen im Straßenverkehr erfasst und verletzt? Wie kam es dazu? War es eine Schieflage in den Daten, mit denen die künstliche Intelligenz trainiert wurde, die dazu führte, dass das Auto den Menschen übersah? Künstliche Intelligenzen haben keinen Sinn für gesellschaftliche Werte oder Gerechtigkeit. Rechtliche Rahmenbedingungen für solche Algorithmen sind in sensiblen Bereichen unausweichlich. Wie dürfen sich Roboter verhalten, die überlastetes Pflegepersonal unterstützen? Das klären Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Innovation und Wettbewerb.

Maschinelles Lernen lässt sich zweifellos für viele Zwecke einsetzen. Nicht immer steht der gesellschaftliche Mehrwert im Vordergrund. Künstliche Intelligenz ist in der Lage, im Handumdrehen Falschmeldungen zu generieren und diese zielgerichtet in sozialen Medien zu verbreiten. Am Max-Planck-Institut für Softwaresysteme erreichen Forschende mit künstlicher Intelligenz das Gegenteil. Ihr Verfahren erkennt Falschmeldungen effektiv. Auf ähnliche Weise finden Wissenschaftlerinnen und Wissenschaftler auch  Hassbotschaften im Netz.

Regeln für Roboter
Pflegeroboter könnten demnächst bei uns zu Hause einziehen. Wie sie sich dabei verhalten sollen, ist noch nicht verhandelt. Am Max-Planck-Institut für Innovation und Wettbewerb in München beschäftigt sich Axel Walz mit der Frage, wie man mit rechtlichen Mitteln dazu beitragen kann, dass künstliche Intelligenz sich an menschliche Werte hält mehr
Frühwarnsystem für Falschmeldungen
Fake News in Sozialen Medien effizienter und treffgenauer bekämpfen: Manuel Gomez Rodriguez vom Max-Planck-Institut für Softwaresysteme kombiniert Verfahren der Künstlichen Intelligenz mit der Auswertung von Signalen, in denen sich menschliches Urteil widerspiegelt mehr

Datenwissenschaften im Dienst der Gesellschaft

Hass und Fake News nehmen im Netz und auf sozialen Medien zu. Auch Forschende werden immer mehr zur Zielscheibe. Am Max-Planck-Institut für Sicherheit und Privatsphäre arbeitet ein Team um die neue Direktorin Mia Cha daran, die Dynamiken dahinter zu verstehen und wie sich der Trend hin zu echten Fakten und einem fairen Umgang miteinander umkehren lässt.

Blaue futuristische Bedienoberfläche mit angezeigten vernetzten Daten von der Seite mit roten User-Icons
Forschende analysieren Desinformation in Sozialen Medien und entwickeln Wege, um Fakten und faire Dialoge im Netz zu fördern
Frau in weinrotem Blazer sitzt am Tisch und lächelt, spricht zu weiterer Frau im Vordergrund, links im Bild
Über den ereignisreichen Weg von Meeyoung Cha in die Welt der Datenwissenschaften und wie KI hilft, Falschinformationen in sozialen Medien zu finden  
Zur Redakteursansicht