Die Sprachsoftware ChatGPT setzt Maßstäbe und zeigt gleichzeitig Risiken durch Künstliche Intelligenz auf. Innerhalb weniger Monate nutzen mehr als 100 Millionen Menschen das Tool. Medien, Politik, Gesellschaft und Gewerkschaften sollten das Vorgehen äußerst kritisch begleiten, denn es ist ein Prototyp für viele weitere KI-Produkte.
Erstellt mit StableDiffusion "Pirates in an ocean of computer and cables - colourful painting"
Jahrelang wurde viel über die Investitionen in Künstliche Intelligenz berichtet. Richtig überzeugend waren die Applikationen im wahren Leben bisher nicht, denkt man etwa an automatisierte Sprachbots an der Telefon Hotline. Selten funktioniert dort die Lösung von Problemen ohne menschliche Hilfe.
Mit der ChatGPT gibt es nun erstmals eine Software, die durch Wissen und sprachliche Fähigkeit überrascht. Das Tool ist seit Ende November in einer Betaversion online. Ein kleiner Auszug der möglichen Anwendungsbereiche: Es kann Klassiker der Weltliteratur zusammenfassen, Software programmieren, Pressemeldungen schreiben, Businesspläne entwickeln oder einfach nur der Unterhaltung dienen. „Gefüttert“ wurde die Technologie mit riesigen Mengen von Daten – etwa aus der Wikipedia und dem Programmier-Portal Github. Hinter der Software steht das US-Unternehmen OpenAI, das unter anderem von Unternehmer Elon Musk und Microsoft finanziert wird.
Ähnlich wie auf einer Suchmaschine gibt man seine Fragen oder Sätze ein. Das Tool antwortet in wenigen Sekunden, es stellt Nachfragen und behält den Kontext des gesamten Chats im Auge. Die Kommunikation ist zwar immer noch fehlerhaft, aber Expert*innen schätzen, dass es nur eine Frage der Zeit ist, bis ChatGPT lernt, falsche Aussagen zu vermeiden. Zudem gibt es viele weitere bemerkenswerte und öffentlich nutzbare KI-Anwendungen, die zum Beispiel per Texteingabe Bilder produzieren. Die Ergebnisse sind verblüffend gut.
In den sozialen Netzwerken herrscht Euphorie. Menschen, die Inhalte für Webseiten und soziale Netzwerke produzieren, lassen sich nun von der Künstlichen Intelligenz helfen. Schreibblockaden gehören damit zur Vergangenheit. Medienkonzerne haben flugs ein neues Berufsbild erfunden: Den oder die KI-Prompter*in, eine Art Maschinen Flüsterer*in. Zu den Anforderungen zählt es, die Aufgaben an die KI zu formulieren und die Antworten des Computers so zu überarbeiten, dass sie für die Veröffentlichung in analogen und digitalen Medien geeignet sind. Hype oder nicht, die Arbeitswelt passt sich bereits an.
Ökonomen bewerten die Aussichten für bestimmte Berufe wenig euphorisch. Anton Korinek, Fellow bei der Denkfabrik Brookings und an der University of Oxford für KI zuständig, sagt auf Spiegel Online: Die Fortschritte beim Maschinenlernen seien mittlerweile so rasant, dass sich die Welt auf ein Szenario vor bereiten müsse, „in dem menschliche Arbeit in weiten Teilen nicht mehr gebraucht wird“. Der Ökonomie Nobelpreisträger Michael Spence macht sich im Handelsblatt konkret Sorgen um Beschäftigte, die kreativ arbeiten. Er könne sich vorstellen, dass in fünf oder zehn Jahren vieles, was in digitaler Form geschrieben wird, von ChatGPT und den Nachfolgeprogrammen übernommen werde. Spence fordert, diese Beschäftigten zu schützen.
Ein mögliches Risiko tragen zum Beispiel alle Betreiber*innen von Webseiten. Künftig will Microsoft ChatGPT in die Suchmaschine Bing integrieren. Auch Google wird mit seinem KI-Sprachmodell Bard diesen Weg gehen. Doch wenn KI in den Suchmaschinen einen großen Teil der Fragen beantwortet, werden viel weniger Internetnutzer*innen die Webseiten von Medien, Unternehmen, Parteien oder auch Gewerkschaften besuchen. Die aktuelle Architektur des Internets steht damit auf dem Spiel. Die großen Tech Konzerne werden durch KI ihre Vormachtstellung noch stärker ausbauen.
Generell kommen sehr viele Fragen auf Wirtschaft, Politik, Medien, Gesellschaft und auch die Gewerkschaften zu. Warum dürfen große Konzerne das gesamte verfügbare Wissen der Menschheit nutzen, um ihre Maschinen zu trainieren, ohne die Urheber*innen von Inhalten konkret darüber zu informieren, geschweige diese an den künftigen Gewinnen zu beteiligen?
Warum gibt es keine Transparenzpflicht oder Quellennachweise für ChatGPT? Warum dürfen Konzerne ihre revolutionäre Technologie per Betatest ausrollen, während die Folgen überhaupt noch nicht abzusehen sind? Wer reguliert selbstlernende Maschinen und wie lange brauchen staatliche Kontrolleur*innen, um systemgefährdende Risiken einzudämmen? Seit gut zwei Jahren wird auf EU-Ebene über den AI Act beraten, der den Einsatz von künstlicher Intelligenz in Europa in rechtliche Bahnen lenken soll. Laut heise.de wurde in einem zuletzt geleakten Entwurf die Liste der sogenannten „Hochrisiko-Anwendungen“ um textgenerierende KIs erweitert, dazu gehört dann vermutlich auch ChatGPT – immerhin. Denn Fakt ist: Hass und Falschmeldungen sind in den sozialen Netzwerken jahrelang unterschätzt worden, bis die Politik ein gegriffen hat. Viel Zeit bleibt offenbar nicht, um Menschen und Unternehmen vor negativen Folgen durch KI zu schützen. Eine Frage ist hingegen schon geklärt. ChatGPT antwortet unmissverständlich auf die Frage, wem die generierten Texte des Tools gehören: Dem Unternehmen OpenAI.
ChatGPT / DGB