Wie große Sprachmodelle die kollektive Intelligenz umgestalten können
Forschende zeigen Potenziale und Risiken großer Sprachmodelle für kollektive Intelligenz auf und formulieren Handlungsempfehlungen.
Große Sprachmodelle (LLMs) entwickeln sich rasant und sind aus unserem Alltag durch Anwendungen wie ChatGPT nicht mehr wegzudenken. Welche Chancen und Risiken ergeben sich durch den Einsatz von LLMs für unsere Fähigkeit, kollektiv zu beraten, Entscheidungen zu treffen und Probleme zu lösen? Antworten liefert ein interdisziplinäres Team von 28 Wissenschaftler*innen unter der Leitung von Forschenden der Copenhagen Business School und des Max-Planck-Instituts für Bildungsforschung in Berlin. Ihre Empfehlungen sollen sicherstellen, dass LLMs die Vorteile kollektiver Intelligenz ergänzen und nicht beeinträchtigen.
In Kürze:
Große Sprachmodelle (LLMs) verändern die Art und Weise, wie Menschen nach Informationen suchen, sie nutzen und miteinander kommunizieren, was sich auf die kollektive Intelligenz von Teams und der Gesellschaft insgesamt auswirken kann.
LLMs bieten neue Möglichkeiten für die kollektive Intelligenz, wie zum Beispiel die Unterstützung von deliberativen, meinungsbildenden Prozessen, bergen aber auch Risiken, wie zum Beispiel die Gefährdung der Vielfalt in der Informationslandschaft.
Wenn LLMs die kollektive Intelligenz nicht untergraben, sondern unterstützen sollen, müssen die technischen Details der Modelle offengelegt und Kontrollmechanismen implementiert werden.
Was machen Sie, wenn Sie einen Begriff wie "LLM" nicht kennen? Vermutlich "googeln" Sie ihn schnell oder fragen Ihr Team. Wir nutzen das Wissen von Gruppen, die sogenannte kollektive Intelligenz, ganz selbstverständlich im Alltag. Durch die Kombination individueller Fähigkeiten und Kenntnisse kann unsere kollektive Intelligenz Ergebnisse erzielen, die die Fähigkeiten jedes Einzelnen, selbst die von Experten, übersteigen. Diese kollektive Intelligenz ist der Motor für den Erfolg aller Arten von Gruppen, von kleinen Teams am Arbeitsplatz bis zu großen Online-Communities wie Wikipedia und sogar Gesellschaften im Allgemeinen.
LLMs sind Systeme der künstlichen Intelligenz (KI), die mithilfe großer Datensätze und Deep-Learning-Techniken Texte analysieren und generieren. In einer Übersichtsarbeit erklären die Forschende, wie LLMs die kollektive Intelligenz verbessern können und erörtern ihre möglichen Auswirkungen auf Teams und die Gesellschaft. „Da große Sprachmodelle zunehmend die Informations- und Entscheidungslandschaft prägen, ist es wichtig, ein Gleichgewicht zwischen der Nutzung ihres Potenzials und der Absicherung gegen Risiken zu finden. Unser Artikel zeigt, wie die menschliche kollektive Intelligenz durch LLMs bereichert werden kann, aber auch die möglichen negativen Folgen", sagt Ralph Hertwig, Koautor des Artikels und Direktor am Max-Planck-Institut für Bildungsforschung in Berlin. An dem Artikel wirkten über 20 Forschungseinrichtungen weltweit mit ebenso wie Google Deepmind London..
Wie KI auf die Gesellschaft wirkt
Zu den von den Forschenden aufgezeigten Potenzialen gehört, dass LLMs die Möglichkeit bieten, die Zugänglichkeit in kollektiven Prozessen erheblich zu verbessern. Sie bauen Barrieren ab, indem sie beispielsweise Übersetzungsdienste und Schreibhilfen anbieten und es Menschen mit unterschiedlichem Hintergrund ermöglichen, gleichberechtigt an Diskussionen teilzunehmen. Außerdem können LLMs die Ideenfindung beschleunigen oder Meinungsbildungsprozesse unterstützen, indem sie beispielsweise hilfreiche Informationen in Diskussionen einbringen, verschiedene Meinungen zusammenfassen und einen Konsens identifizieren.
Doch die Verwendung von LLMs birgt auch erhebliche Risiken. Sie können zum Beispiel die Motivation der Menschen untergraben, zu kollektiven Wissensgemeinschaften wie Wikipedia und Stack Overflow beizutragen. Auch kann die Offenheit und Vielfalt der Wissenslandschaft gefährdet sein, wenn sich die Nutzer und Nutzerinnen zunehmend auf proprietäre Modelle verlassen. Ein weiteres Problem ist das Risiko eines falschen Konsenses und der pluralistischen Ignoranz, bei der fälschlicherweise angenommen wird, dass die Mehrheit eine Norm akzeptiert. „Da LLMs aus online verfügbaren Informationen lernen, besteht die Gefahr, dass die Standpunkte von Minderheiten in den von LLMs generierten Antworten nicht repräsentiert sind. Das kann ein falsches Gefühl der Übereinstimmung erzeugen und einige Perspektiven ausgrenzen“, betont Jason Burton, Hauptautor der Studie und Assistenzprofessor an der Copenhagen Business School sowie assoziierter Wissenschaftler am Institut.
Künstliche Intelligenz braucht kollektive Intelligenz
„Der Wert dieses Artikels liegt darin, dass er aufzeigt, warum wir proaktiv darüber nachdenken müssen, wie LLMs die Online-Informationsumgebung und damit auch unsere kollektive Intelligenz verändern – im Guten wie im Schlechten“, fasst Mitautor Joshua Becker, Assistenzprofessor am University College London, zusammen. Das Autorenteam fordert mehr Transparenz bei der Erstellung von LLMs, einschließlich der Offenlegung der Quellen von Trainingsdaten.
Sie schlagen zudem vor, dass LLM-Entwickler- und Entwicklerinnen einer externen Prüfung und Überwachung unterzogen werden sollten. Dies würde ein besseres Verständnis dafür ermöglichen, wie LLMs tatsächlich entwickelt werden und negative Entwicklungen eindämmen. Die Bedeutung von kollektiver Intelligenz für das Training von LLMs ist ebenso groß wie die Rolle des Menschen bei der Entwicklung von LLMs. Eine offene Forschungsfrage ist etwa, wie die Homogenisierung von Wissen vermieden werden kann und wie Anerkennung und Verantwortung verteilt werden sollten, wenn kollektive Ergebnisse mit LLMs geschaffen werden.
Der Artikel ist im Journal Nature Human Behaviour erschienen.