Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
Zukunftsmärkte > KI regulieren

Wie man sich klug um künstliche Intelligenz sorgt

Die raschen Fortschritte im Bereich der künstlichen Intelligenz wecken sowohl Angst als auch Begeisterung. Wie besorgt sollten wir wirklich sein – auch um unsere Arbeitsplätze und die Welt, in der wir leben?

Roboter im Büro
Sollten wir alle Arbeitsplätze automatisieren, auch die, die uns erfüllen? Bild: Shutterstock

"Sollten wir alle Arbeitsplätze automatisieren - auch die, die uns erfüllen? Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sind, uns überlisten... und ersetzen? Sollten wir den Verlust der Kontrolle über unsere Zivilisation riskieren?" Diese Fragen wurden letzten Monat in einem offenen Brief des Future of Life Institute, einer Nichtregierungsorganisation, gestellt. Darin wurde eine sechsmonatige "Pause" bei der Entwicklung der fortschrittlichsten Formen der künstlichen Intelligenz (KI) gefordert, und er wurde von Tech-Größen wie Elon Musk unterzeichnet. Es ist das bisher prominenteste Beispiel dafür, wie der rasche Fortschritt in der KI Ängste vor den potenziellen Gefahren der Technologie ausgelöst hat.

Insbesondere neue "große Sprachmodelle" (Large Language Models, LLM) - wie die, die ChatGPT, einen Chatbot des Start-ups Open AI, antreiben - haben selbst ihre Schöpfer mit ihren unerwarteten Talenten überrascht, als sie hochskaliert wurden. Solche "auftauchenden" Fähigkeiten reichen vom Lösen von Logikrätseln über das Schreiben von Computercodes bis hin zur Identifizierung von Filmen anhand von in Emoji geschriebenen Handlungszusammenfassungen.

Diese Modelle werden die Beziehung der Menschen zu Computern, Wissen und sogar zu sich selbst verändern. Befürworter der KI argumentieren mit ihrem Potenzial, große Probleme zu lösen, indem sie neue Medikamente entwickeln, neue Materialien zur Bekämpfung des Klimawandels entwerfen oder die Komplexität der Fusionsenergie entschlüsseln. Andere wiederum sehen in der Tatsache, dass die Fähigkeiten der KI bereits jetzt das Verständnis ihrer Schöpfer übersteigen, die Gefahr, dass das Science-Fiction-Katastrophenszenario der Maschine, die ihren Erfinder überlistet, zum Leben erweckt wird - oft mit fatalen Folgen.

Diese brodelnde Mischung aus Aufregung und Angst macht es schwer, die Chancen und Risiken abzuwägen. Aber man kann aus anderen Branchen und aus vergangenen technologischen Umwälzungen Lehren ziehen. Was hat sich also geändert, dass die KI so viel leistungsfähiger geworden ist? Wie viel Angst sollte man haben? Und was sollten die Regierungen tun?

 

In einem Sonderteil zum Thema Wissenschaft untersuchen wir die Funktionsweise von KI und ihre künftige Ausrichtung. Die erste Welle moderner KI-Systeme, die vor einem Jahrzehnt aufkam, stützte sich auf sorgfältig gekennzeichnete Trainingsdaten. Sobald sie mit einer ausreichenden Anzahl von Beispielen konfrontiert wurden, konnten sie Dinge wie Bilderkennung oder Sprachtranskription lernen. Heutige Systeme benötigen keine Voretikettierung und können daher mit viel größeren Datensätzen aus Online-Quellen trainiert werden. LLM können in der Tat auf dem gesamten Internet trainiert werden - was ihre Fähigkeiten erklärt, im Guten wie im Schlechten.

Diese Fähigkeiten wurden einer breiteren Öffentlichkeit deutlich, als ChatGPT im November veröffentlicht wurde. Innerhalb einer Woche wurde es von einer Million Menschen genutzt, innerhalb von zwei Monaten von 100 Millionen. Schon bald wurde es zur Erstellung von Schulaufsätzen und Hochzeitsreden verwendet. Die Popularität von ChatGPT und der Schritt von Microsoft, es in seine Suchmaschine Bing zu integrieren, veranlasste konkurrierende Unternehmen, ebenfalls Chatbots zu veröffentlichen.

Einige dieser Chatbots brachten seltsame Ergebnisse hervor. Bing Chat schlug einem Journalisten vor, er solle seine Frau verlassen. ChatGPT wurde von einem Juraprofessor der Verleumdung beschuldigt. llms produzieren Antworten, die den Anschein von Wahrheit erwecken, aber oft sachliche Fehler oder völlige Erfindungen enthalten. Dennoch haben Microsoft, Google und andere Technologieunternehmen begonnen, LLM in ihre Produkte einzubauen, um die Benutzer bei der Erstellung von Dokumenten und anderen Aufgaben zu unterstützen.

Die jüngste Beschleunigung der Leistungsfähigkeit und Sichtbarkeit von KI-Systemen und das wachsende Bewusstsein für ihre Fähigkeiten und Mängel haben die Befürchtung aufkommen lassen, dass die Technologie inzwischen so schnell voranschreitet, dass sie nicht mehr sicher kontrolliert werden kann. Daher der Ruf nach einer Pause und die wachsende Besorgnis, dass KI nicht nur Arbeitsplätze, sachliche Richtigkeit und Ansehen bedrohen könnte, sondern auch die Existenz der Menschheit selbst.

Aussterben? Rebellion?

Die Angst, dass Maschinen Arbeitsplätze wegnehmen, ist Jahrhunderte alt. Doch bisher hat die neue Technologie neue Arbeitsplätze geschaffen, um die zu ersetzen, die sie vernichtet hat. Maschinen sind in der Regel in der Lage, einige Aufgaben zu erledigen, andere nicht, so dass die Nachfrage nach Menschen steigt, die die Aufgaben übernehmen können, die Maschinen nicht erledigen können. Könnte es dieses Mal anders sein? Ein plötzlicher Umbruch auf den Arbeitsmärkten ist nicht auszuschließen, auch wenn es bisher keine Anzeichen dafür gibt. Bisherige Technologien haben eher ungelernte Tätigkeiten ersetzt, doch können Computer auch einige Angestelltentätigkeiten übernehmen, z. B. das Zusammenfassen von Dokumenten und das Schreiben von Code.

Das Ausmaß des existenziellen Risikos, das von der KI ausgeht, wird heftig diskutiert. Die Experten sind geteilter Meinung. In einer 2022 durchgeführten Umfrage unter KI-Forschern waren 48 % der Meinung, dass die Auswirkungen der KI mindestens 10 Prozent betragen und "extrem schlimm" sein könnten (z. B. Aussterben der Menschheit). Aber 25 Prozent sagten, das Risiko liege bei 0 Prozent. Der Median der Forscher schätzte das Risiko auf 5 Prozent. Der Albtraum ist, dass eine fortgeschrittene KI in großem Umfang Schaden anrichtet, indem sie Gifte oder Viren herstellt oder Menschen zu terroristischen Handlungen verleitet. Sie muss keine bösen Absichten haben: Forscher befürchten, dass künftige KIs Ziele verfolgen könnten, die nicht mit denen ihrer menschlichen Schöpfer übereinstimmen.

Solche Szenarien sind nicht von der Hand zu weisen. Aber alle beinhalten eine große Menge an Mutmaßungen und einen Sprung gegenüber der heutigen Technologie. Und viele stellen sich vor, dass künftige KIs ungehinderten Zugang zu Energie, Geld und Rechenleistung haben werden, was heute echte Einschränkungen sind und einer bösartigen KI in Zukunft verwehrt werden könnte. Außerdem neigen Experten dazu, die Risiken in ihrem Bereich im Vergleich zu anderen Prognostikern zu hoch einzuschätzen. (Und Herr Musk, der sein eigenes KI-Startup auf den Weg bringt, hat ein Interesse daran, dass seine Konkurrenten die Werkzeuge zu Fall bringen.) Eine strenge Regulierung oder gar eine Pause scheint heute eine Überreaktion zu sein. Ein Aufschub wäre auch nicht durchsetzbar.

Eine Regulierung ist notwendig, aber aus viel banaleren Gründen als der Rettung der Menschheit. Die bestehenden KI-Systeme geben Anlass zu echten Bedenken in Bezug auf Voreingenommenheit, Datenschutz und Rechte an geistigem Eigentum. Mit dem Fortschreiten der Technologie könnten weitere Probleme auftauchen. Der Schlüssel liegt darin, das Versprechen der KI mit einer Bewertung der Risiken in Einklang zu bringen und bereit zu sein, sich anzupassen.
Bislang verfolgen die Regierungen drei unterschiedliche Ansätze. Am einen Ende des Spektrums steht Großbritannien, das einen "sanften" Ansatz vorgeschlagen hat, der keine neuen Regeln oder Regulierungsbehörden vorsieht, sondern bestehende Vorschriften auf KI-Systeme anwendet. Ziel ist es, Investitionen anzukurbeln und Großbritannien zu einer "KI-Supermacht" zu machen. Die USA haben einen ähnlichen Ansatz gewählt, obwohl die Regierung Biden nun die Meinung der Öffentlichkeit einholt, wie ein Regelwerk aussehen könnte.

Die EU verfolgt einen härteren Kurs. Ihr Gesetzesvorschlag kategorisiert die verschiedenen Anwendungen der KI nach dem Grad des Risikos und verlangt eine immer strengere Überwachung und Offenlegung, je höher das Risiko ist, z. B. von Musikempfehlungen bis hin zu selbstfahrenden Autos. Einige Anwendungen der KI sind gänzlich verboten, wie etwa unterschwellige Werbung und biometrische Fernerkundung. Unternehmen, die gegen die Vorschriften verstoßen, müssen mit Geldstrafen rechnen. Einige Kritiker halten diese Vorschriften für zu restriktiv.

Andere wiederum sagen, dass ein noch strengerer Ansatz erforderlich ist. Die Regierungen sollten KI wie Medikamente behandeln, mit einer eigenen Regulierungsbehörde, strengen Tests und einer Vorabgenehmigung vor der öffentlichen Freigabe. China unternimmt bereits einiges in dieser Richtung und verlangt von den Unternehmen, KI-Produkte zu registrieren und vor der Freigabe einer Sicherheitsüberprüfung zu unterziehen. Doch die Sicherheit ist vielleicht weniger ein Motiv als die Politik: Eine der wichtigsten Anforderungen ist, dass die KI-Produkte die "Grundwerte des Sozialismus" widerspiegeln.

Was ist zu tun? Der sanfte Ansatz wird wahrscheinlich nicht ausreichen. Wenn die KI eine ebenso wichtige Technologie ist wie Autos, Flugzeuge und Medikamente - und es gibt gute Gründe dafür -, dann braucht sie wie diese neuen Regeln. Dementsprechend kommt das Modell der EU dem Ziel am nächsten, auch wenn sein Klassifizierungssystem überzogen ist und ein prinzipienbasierter Ansatz flexibler wäre. Eine obligatorische Offenlegung darüber, wie die Systeme geschult werden, wie sie funktionieren und wie sie überwacht werden, sowie die Forderung nach Inspektionen wären vergleichbar mit ähnlichen Vorschriften in anderen Branchen.

Dies könnte im Laufe der Zeit eine strengere Regulierung ermöglichen, falls dies erforderlich ist. Eine spezielle Aufsichtsbehörde könnte dann angebracht sein; ebenso könnten zwischenstaatliche Verträge, ähnlich denen für Atomwaffen, geschlossen werden, wenn plausible Beweise für ein existenzielles Risiko vorliegen. Zur Überwachung dieses Risikos könnten die Regierungen eine Einrichtung nach dem Vorbild des Teilchenphysiklabors CERN gründen, die sich auch mit der Sicherheit und der Ethik der Kernenergie befassen könnte - Bereiche, in denen es den Unternehmen an Anreizen mangelt, so viel zu investieren, wie es die Gesellschaft vielleicht wünscht.

Diese leistungsstarke Technologie birgt neue Risiken, bietet aber auch außergewöhnliche Chancen. Beides miteinander in Einklang zu bringen, bedeutet, vorsichtig vorzugehen. Ein maßvolles Vorgehen heute kann die Grundlage dafür bilden, dass in Zukunft weitere Regeln hinzugefügt werden können. Aber es ist jetzt an der Zeit, mit dem Aufbau dieser Grundlagen zu beginnen.

© 2023 The Economist Newspaper Limited. All rights reserved.

Aus The Economist, übersetzt von der Markt & Mittelstand Redaktion, veröffentlicht unter Lizenz. Der Originalartikel in englischer Sprache ist zu finden unter www.economist.com

Ähnliche Artikel