Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
Firmen-News > Chancen und Risiken von KI

Klarer Rahmen für künstliche Intelligenz nötig

Die Technologie birgt bei bahnbrechenden Chancen einiges Schadenspotenzial. Ein Gastbeitrag von Tabea Rösner. Die Grünen-Politikerin leitet den Digitalausschuss im Bundestag.

Tabea Rößner (Grüne)
Tabea Rößner (Grüne) leitet den Ausschuss für Digitales im Bundestag. Bild: Nils Leon Brauer

Mit ChatGPT ist künstliche Intelligenz in den Wohnzimmern der Menschen angekommen. Ob Gedichte, Hausaufgaben, Mails, Fotos, die Zusammenfassung komplizierter Texte oder sogar Programmieren: Sprach- und textbasierte Chatbots faszinieren mit einer hohen Bandbreite an Einsatzmöglichkeiten bis hin zu Bereichen, die üblicherweise Menschen mit umfangreichen Fachkompetenzen vorbehalten sind.

Neben bahnbrechenden neuen Möglichkeiten für den Zugang zu Wissen und Forschung, für Verbesserungen im Gesundheitswesen, in Verkehr, Verwaltung, Klimaschutz und grüner Wirtschaft birgt die Technologie allerdings auch Manipulationspotenzial und zeigt eine hohe Fehleranfälligkeit. So warnten Mitarbeiter von Google vor der Präsentation des Chatbots Bard, weil sie ihn als noch nicht ausgereift ansahen. Darüber hinaus arbeiten die Systeme, die herkömmlichen Suchmaschinen Konkurrenz machen, aufgrund der fehlenden Links und Quellenverweise vollständig intransparent. Schließlich bestehen gravierende Datenschutzbedenken, etwa wenn Chatverläufe (und damit persönliche Daten) anderen Nutzern angezeigt werden.

Die Sperrung von ChatGPT durch italienische Behörden ist daher zwar weitreichend, zeigt den Techunternehmen aber, dass neue KI-Systeme auch bestehenden Vorschriften wie dem Daten- oder Jugendschutz unterliegen und Verstöße nicht ohne Folgen bleiben.

Mit einem klaren, sanktionsbewehrten Rechtsrahmen können die Vorteile von KI nutzbar, gesellschaftliche Risiken andererseits beherrschbar gemacht werden. Denn die Auswirkungen von KI können sehr weitreichend sein. Systeme wie ChatGPT oder eine KI-Bildgenerierung, die täuschend echte Videos und Bilder wie die vom Papst in weißer Daunenjacke oder von der vermeintlichen Verhaftung Donald Trumps erzeugen kann, stellen eine immense Gefahr für die öffentliche Meinungsbildung dar, indem sie Desinformation und Manipulation befördern können. Die sogenannte Kindergeldaffäre („Toeslagenafaire“), bei der die Regierung der Niederlande wegen eines diskriminierenden Algorithmus Tausende Familien ungerechtfertigt in den finanziellen Ruin getrieben hatte, zeigt zudem, dass gerade der staatliche Einsatz von KI streng überwacht werden muss.

Für eine konsequente Durchsetzung bestehenden Rechts wie des Daten- und Jugendschutzes oder auch des Digital Services Acts braucht es eine starke Aufsicht. Gleichzeitig muss ein einheitlicher Rechtsrahmen existieren, der Rechtssicherheit schafft und zukünftige technische Entwicklungen umfasst. Auf EU-Ebene wird derzeit die KI-Verordnung verhandelt, die KI-Systeme – sinnvollerweise – risikobasiert einteilt und reguliert. Zudem wird die Produkthaftungsrichtlinie überarbeitet. Unabhängig davon sollten wir wesentliche Entscheidungen nicht einer KI-Blackbox überlassen und im Zweifel ethische Grenzen ziehen. Transparenz- und Kennzeichnungspflichten für von Chatbots oder Bildgeneratoren erstellte Inhalte, wie es die KI-Verordnung vorsieht, sind gute Ansatzpunkte. Auf gesellschaftlicher Ebene braucht es Aufklärung und digitale Kompetenzen im Bereich KI und sonstige digitale Anwendungen.

Es liegt an uns, die zukünftige Entwicklung von künstlicher Intelligenz positiv für den gesellschaftlichen Nutzen zu gestalten. Dies benötigt einen gemeinsamen Verständigungsprozess über Vorteile, Risiken und auch Grenzen der KI-Systeme. Dabei können bei erheblichem Schadenspotenzial auch (vorübergehende) Stoppschilder wie in Italien zum Einsatz kommen. Nur so können wir die Vorteile der Technologie für uns nutzen und gleichzeitig unsere Grund- und Freiheitsrechte wahren.

Ähnliche Artikel