Die neuen Chatbots könnten die Welt verändern.  Können Sie ihnen vertrauen?
HeimHeim > Blog > Die neuen Chatbots könnten die Welt verändern. Können Sie ihnen vertrauen?

Die neuen Chatbots könnten die Welt verändern. Können Sie ihnen vertrauen?

Aug 21, 2023

Werbung

Unterstützt durch

Siri, die Google-Suche, Online-Marketing und die Hausaufgaben Ihres Kindes werden nie mehr die gleichen sein. Dann gibt es noch das Fehlinformationsproblem.

Schicken Sie jedem Freund eine Geschichte

Als Abonnent haben Sie 10 Geschenkartikel jeden Monat zu geben. Jeder kann lesen, was Sie teilen.

Von Cade Metz

Cade Metz hat diesen Artikel auf der Grundlage monatelanger Gespräche mit den Wissenschaftlern geschrieben, die Chatbots entwickeln, und den Menschen, die sie verwenden.

Diesen Monat stellte Jeremy Howard, ein Forscher für künstliche Intelligenz, seiner 7-jährigen Tochter einen Online-Chatbot namens ChatGPT vor. Es war einige Tage zuvor von OpenAI, einem der ehrgeizigsten KI-Labore der Welt, veröffentlicht worden.

Er forderte sie auf, den experimentellen Chatbot zu fragen, was ihm in den Sinn kam. Sie fragte, wofür Trigonometrie gut sei, woher schwarze Löcher kamen und warum Hühner ihre Eier ausbrüten. Jedes Mal antwortete es in klarer, gut interpunktierter Prosa. Als sie nach einem Computerprogramm fragte, das die Flugbahn eines durch die Luft geworfenen Balls vorhersagen konnte, erhielt sie auch das.

In den nächsten Tagen erkannte Herr Howard – ein Datenwissenschaftler und Professor, dessen Arbeit die Entwicklung von ChatGPT und ähnlichen Technologien inspirierte – den Chatbot als eine neue Art von persönlichem Tutor. Es könnte seiner Tochter Mathematik, Naturwissenschaften und Englisch beibringen, ganz zu schweigen von einigen anderen wichtigen Lektionen. Die wichtigste davon: Glauben Sie nicht alles, was Ihnen gesagt wird.

„Es ist aufregend zu sehen, wie sie so lernt“, sagte er. „Aber ich habe ihr auch gesagt: Vertraue nicht allem, was es dir gibt. Es kann Fehler machen.“

OpenAI gehört zu den vielen Unternehmen, akademischen Labors und unabhängigen Forschern, die an der Entwicklung fortschrittlicherer Chatbots arbeiten. Diese Systeme können nicht ganz wie ein Mensch chatten, scheinen es aber oft zu tun. Sie können Informationen auch mit einer Geschwindigkeit abrufen und neu verpacken, die Menschen niemals könnten. Man kann sie sich als digitale Assistenten vorstellen – wie Siri oder Alexa –, die besser verstehen, wonach Sie suchen, und die es Ihnen geben können.

Nach der Veröffentlichung von ChatGPT – das von mehr als einer Million Menschen genutzt wird – glauben viele Experten, dass diese neuen Chatbots Internet-Suchmaschinen wie Google und Bing neu erfinden oder sogar ersetzen werden.

Sie können Informationen in kurzen Sätzen bereitstellen, statt in langen Listen mit blauen Links. Sie erklären Konzepte auf eine Weise, die Menschen verstehen können. Und sie können Fakten liefern und gleichzeitig Geschäftspläne, Hausarbeiten und andere neue Ideen von Grund auf erstellen.

„Sie haben jetzt einen Computer, der jede Frage auf eine Weise beantworten kann, die für einen Menschen sinnvoll ist“, sagte Aaron Levie, Geschäftsführer des Silicon Valley-Unternehmens Box und einer der vielen Führungskräfte, die untersuchen, wie diese Chatbots die Welt verändern werden technologische Landschaft. „Es kann Ideen aus verschiedenen Kontexten extrapolieren, übernehmen und zusammenführen.“

Die neuen Chatbots tun dies mit scheinbar völliger Sicherheit. Aber sie sagen nicht immer die Wahrheit. Manchmal scheitern sie sogar beim einfachen Rechnen. Sie vermischen Fakten mit Fiktion. Und wenn sie sich weiter verbessern, könnten Menschen sie nutzen, um Unwahrheiten zu erzeugen und zu verbreiten.

Google hat kürzlich ein System speziell für Konversationen namens LaMDA (Language Model for Dialogue Applications) entwickelt. In diesem Frühjahr behauptete ein Google-Ingenieur, es sei empfindungsfähig. Das war zwar nicht der Fall, aber es regte die Fantasie der Öffentlichkeit an.

Aaron Margolis, ein Datenwissenschaftler in Arlington, Virginia, gehörte zu der begrenzten Anzahl von Personen außerhalb von Google, die LaMDA über eine experimentelle Google-App, AI Test Kitchen, nutzen durften. Er war immer wieder erstaunt über sein Talent für offene Gespräche. Es hat ihn unterhalten. Aber er warnte davor, dass es ein bisschen wie ein Fabulist sein könnte – wie es von einem System zu erwarten war, das auf riesigen Mengen an im Internet veröffentlichten Informationen trainiert wurde.

„Was es einem bietet, ist ein bisschen wie ein Aaron-Sorkin-Film“, sagte er. Herr Sorkin schrieb „The Social Network“, einen Film, der oft dafür kritisiert wird, dass er die Wahrheit über den Ursprung von Facebook ans Licht bringt. „Teile davon werden wahr sein, andere werden nicht wahr sein.“

Kürzlich hat er sowohl LaMDA als auch ChatGPT gebeten, mit ihm zu chatten, als wäre es Mark Twain. Als er LaMDA fragte, wurde bald von einem Treffen zwischen Twain und Levi Strauss berichtet und es hieß, der Schriftsteller habe für den Bluejeans-Mogul gearbeitet, als er Mitte des 19. Jahrhunderts in San Francisco lebte. Es schien wahr zu sein. Aber es war nicht so. Twain und Strauss lebten zur gleichen Zeit in San Francisco, arbeiteten jedoch nie zusammen.

Wissenschaftler nennen dieses Problem „Halluzination“. Ähnlich wie ein guter Geschichtenerzähler haben Chatbots die Möglichkeit, das Gelernte in etwas Neues umzuwandeln – ohne Rücksicht darauf, ob es wahr ist.

LaMDA ist das, was Forscher der künstlichen Intelligenz ein neuronales Netzwerk nennen, ein mathematisches System, das lose dem Netzwerk von Neuronen im Gehirn nachempfunden ist. Dabei handelt es sich um dieselbe Technologie, die auf Diensten wie Google Translate zwischen Französisch und Englisch übersetzt und Fußgänger identifiziert, während selbstfahrende Autos durch die Straßen der Stadt navigieren.

Ein neuronales Netzwerk erlernt Fähigkeiten durch die Analyse von Daten. Durch das Auffinden von Mustern in Tausenden von Katzenfotos kann es beispielsweise lernen, eine Katze zu erkennen.

Vor fünf Jahren begannen Forscher bei Google und Laboren wie OpenAI mit der Entwicklung neuronaler Netze, die riesige Mengen digitalen Textes analysierten, darunter Bücher, Wikipedia-Artikel, Nachrichten und Online-Chat-Protokolle. Wissenschaftler nennen sie „große Sprachmodelle“. Durch die Identifizierung von Milliarden unterschiedlicher Muster in der Art und Weise, wie Menschen Wörter, Zahlen und Symbole verbinden, lernten diese Systeme, selbst Text zu generieren.

Ihre Fähigkeit, Sprache zu erzeugen, überraschte viele Forscher auf diesem Gebiet, darunter auch viele der Forscher, die sie entwickelt haben. Die Technologie könnte nachahmen, was Menschen geschrieben haben, und unterschiedliche Konzepte kombinieren. Man könnte es bitten, eine „Seinfeld“-Szene zu schreiben, in der Jerry eine esoterische mathematische Technik namens „Blasensortierungsalgorithmus“ erlernt – und das würde es auch.

Mit ChatGPT hat OpenAI daran gearbeitet, die Technologie zu verfeinern. Es ermöglicht nicht so frei fließende Konversationen wie Googles LaMDA. Es wurde so konzipiert, dass es eher wie Siri, Alexa und andere digitale Assistenten funktioniert. Wie LaMDA wurde ChatGPT auf einem Meer digitaler Texte aus dem Internet trainiert.

Als die Leute das System testeten, wurden sie gebeten, seine Antworten zu bewerten. Waren sie überzeugend? Waren sie nützlich? Waren sie wahr? Mithilfe einer Technik namens „Reinforcement Learning“ wurden dann die Bewertungen verwendet, um das System zu verfeinern und genauer zu definieren, was es tun würde und was nicht.

„Dadurch können wir an den Punkt gelangen, an dem das Modell mit Ihnen interagieren und zugeben kann, wenn etwas falsch ist“, sagte Mira Murati, Chief Technology Officer von OpenAI. „Es kann etwas ablehnen, das unangemessen ist, und es kann eine Frage oder eine Prämisse in Frage stellen, die falsch ist.“

Die Methode war nicht perfekt. OpenAI warnte Nutzer von ChatGPT, dass es „gelegentlich falsche Informationen generieren“ und „schädliche Anweisungen oder voreingenommene Inhalte produzieren“ könne. Das Unternehmen plant jedoch, die Technologie weiter zu verfeinern und erinnert die Benutzer daran, dass es sich immer noch um ein Forschungsprojekt handelt.

Google, Meta und andere Unternehmen befassen sich ebenfalls mit Genauigkeitsproblemen. Meta hat kürzlich eine Online-Vorschau seines Chatbots Galactica entfernt, weil dieser wiederholt falsche und voreingenommene Informationen generierte.

Experten haben gewarnt, dass Unternehmen das Schicksal dieser Technologien nicht kontrollieren können. Systeme wie ChatGPT, LaMDA und Galactica basieren auf Ideen, Forschungsarbeiten und Computercode, die seit Jahren frei im Umlauf sind.

Unternehmen wie Google und OpenAI können die Technologie schneller vorantreiben als andere. Aber ihre neuesten Technologien wurden reproduziert und weit verbreitet. Sie können Menschen nicht daran hindern, diese Systeme zur Verbreitung von Fehlinformationen zu nutzen.

So wie Herr Howard hoffte, dass seine Tochter lernen würde, nicht allem zu vertrauen, was sie im Internet las, hoffte er, dass die Gesellschaft die gleiche Lektion lernen würde.

„Man könnte Millionen dieser Bots so programmieren, dass sie wie Menschen aussehen und Gespräche führen, die darauf abzielen, Menschen von einem bestimmten Standpunkt zu überzeugen“, sagte er. „Ich habe davor schon seit Jahren gewarnt. Jetzt ist es offensichtlich, dass das nur darauf wartet, dass es passiert.“

Cade Metz ist Technologiereporter und Autor von „Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World“. Er deckt künstliche Intelligenz, selbstfahrende Autos, Robotik, virtuelle Realität und andere aufstrebende Bereiche ab. @cademetz

Werbung

Schicken Sie jedem Freund eine Geschichte mit 10 Geschenkartikeln