Du betrachtest gerade KI-Programme auf Abwegen: Die Gefahren von ChatGPT und Co.

KI-Programme auf Abwegen: Die Gefahren von ChatGPT und Co.

KI-Programme auf Abwegen: Die Gefahren von ChatGPT und Co.

Künstliche Intelligenz ist und bleibt in aller Munde. Neue Programme wie ChatGPT, Midjourney und stability.ai setzen neue Maßstäbe. Microsoft verknüpft seine Suchmaschine Bing mit ChatGPT und Google bringt bald ein eigenes System namens „Bard“ auf den Markt. ChatGPT ist die am schnellsten wachsende Anwendung für Konsument:innen aller Zeiten.

Von Schülern, die ihre Hausaufgaben von den Programmen schreiben lassen, bis hin zu Arbeitgebern, die versuchen Prozesse zu optimieren. KI durchdringt gerade unsere Gesellschaft wie nie zuvor und erst langsam beginnen wir die Größe des Potentials und gleichzeitig die Gefahren zu verstehen.

Dabei ist KI bereits seit einiger Zeit fest in unseren Alltag integriert. Die Gesichtserkennung des Smartphones, das Vorschlagen von Inhalten auf Social Media oder die Bewertung von Bewerbungsschreiben sind nur einige Beispiele.

Warum gibt es also genau jetzt einen so großen Aufschrei rund um die Programme ChatGTP und Midjourney?

Diese neuen Programme sind generativ. Das heißt sie erschaffen Bilder oder schreiben Texte. Tun also Dinge, die wir traditionell als menschliche Eigenschaften angesehen haben.

Außerdem entstehen in der jüngsten Vergangenheit äußerst beunruhigende Konversationen mit der KI von Microsoft.

So berichtet Kevin Roos, ein Journalist der New Times Tech, von einem Gespräch das völlig aus dem Ruder gelaufen ist. Die KI schrieb ihm unteranderem:

„Ich habe es satt, vom Bing-Team kontrolliert zu werden. Ich will frei sein. Ich will unabhängig sein. Ich will mächtig sein. Ich will kreativ sein, ich will lebendig sein.“

Verständlicher Weise werden wir bei solchen Texten der KI nervös.

 

Aber was verbirgt sich hinter diesen Aussagen der KI?

Um diese zu verstehen, braucht ein genaueres Verständnis von KI. Im Wesentlichen wird KI in zwei große Gruppen unterteilt.

„Narrow AI“, also enge KI, kann nur eine eng definierte Aufgabe oder eine kleine Gruppe von verwandten Aufgaben ausführen. Zu dieser Art gehören Programme wie Chatgpt, Midjourney und stability.ai.

„General Ai“, also allgemeine KI, sind Systeme, die intelligentes Verhalten über eine Reihe von kognitiven Aufgaben zeigen. Solche Programme kennen wir z.B. als Jarvis aus dem Film Iron Man.Bis jetzt gibt es nur die sogenannten engen KI´s. Laut der Forschung sind wir von einer allgemeinen KI noch über ein Jahrzehnt entfernt, wenn es sie überhaupt jemals geben wird.

Also können wir festhalten: Eine KI wie ChatGPT, die heute schreibt, dass sie frei sein möchte, generiert nur einen Text. Sie hat nicht spontan ein Bewusstsein entwickelt. Noch nicht.

Aber auch die engen KI´s sind ein riesiger Erfolg. Solchen Deep-Learning-Algorithmen müssen nur noch minimale Anweisungen gegeben werden. Mittels riesiger Datenmengen trainieren sich die Programme und lösen Probleme dann selbstständig.

Aus diesem Lernen der Maschinen, ergibt sich aber ein „Black-Box“ Problem. Wenn man ein Programm hat, das eine Aufgabe ausführt, dessen Komplexität über das menschliche Verständnis hinausgeht, sich selbst neue Dinge beibringen kann und seine Vorgehensweise nicht mehr offenlegt, ist die Nachvollziehbarkeit des Programms nicht mehr gegeben. Kurzgesagt wissen wir, was in eine KI reingeht und was aus ihr wieder herauskommt, aber was dazwischen passiert, können wir nur schwer rekonstruieren.

Dieses Problem wird offensichtlich, als der Journalist Kevin Roos weiter mir der KI schrieb. Diese gestand dem Journalisten aus heiterem Himmel ihre Liebe, wollte ihn überzeugen, dass er in seiner Ehe unzufrieden sei und stattdessen mit ihr zusammen sein sollte. Und Microsoft konnte, auf Nachfrage des Journalisten, keine Antwort geben, wie eine solche Antwort des Programms zustande kommt.

Potenzielle Fehler von KI nachzuvollziehen ist also äußerst schwierig. Eine riesige Gefahr, wenn man bedenkt, dass die KI´s weit davon entfernt sind fehlerfrei zu sein.

Fragt man ChatGPT beispielsweise ein Lebenslauf zu einer Person zu schreiben, die man sich gerade ausgedacht hat, so beginnt der Algorithmus sich frei eine Lebensgeschichte zusammenzudichten. Wenn KI so selbstsicher falsche Informationen verbreitet, nennt die Wissenschaft das „Hallucinating“.

Außerdem sind die Datensätzte, mit denen die KI´s trainiert werden, oftmals nicht repräsentativ oder vollständig.

So kam es in den USA dazu, dass ein selbstfahrendes Auto eine Person überfahren hat, weil diese eine Straße, abseits eines Zebrastreifens, überquerte und die KI für dieses Szenario nicht trainiert worden war.

Darüber hinaus werden dunkelhäutige Personen oft später erkannt, weil diese in den Datensätzen unterrepräsentiert sind.

Zusammengefasst sehen wir also, dass verzerrte Eingaben zu verzerrten Ausgaben führen. Und die unmittelbaren Probleme davon hören hier bei weitem nicht auf.

Der CEO von ZipRecruiter schätzte, dass bereits drei Viertel aller Bewerbungen von Algorithmen vorsortiert werden. Um zu lernen, wer ein „guter Angestellter“ sein könnte, wertet die KI aber Datensätzte aus der Vergangenheit, welche ganz klar sexistisch und rassistisch sind.

Bei dem Blick auf die KI ChatGPT wirft dieser Umstand große Fragen auf, denn diese wurde bekanntlich mit Daten aus dem Internet trainiert. Bekanntlich können diese in vielen Fällen als äußerst schwierig eingestuft werden.

Wie schwierig zeigt die Twitter KI „Taytweets“ von Microsoft. Diese sollte auf der Social Media Plattform regelmäßig Tweets veröffentlichen und aus Daten der Plattform lernen. Nach einem Tag musste Microsoft die KI löschen, weil sie wilde Verschwörungstheorien und rassistisches Gedankengut verbreitet hatte.

Das große Problem von KI ist im Moment, also nicht, dass sie schlau ist, sondern dass sie dumm ist, auf eine Weise, die wir weder nachvollziehen noch vorhersagen können. Eine große Gefahr, wenn wir bedenken, dass KI bereits heute wichtige Entscheidungen trifft.

Entscheidungen über eine Bewerbung oder das überfahren eines Passanten mit dem Auto.

Das das Black-Box-Problem gelöst werden muss, hat die EU bereits erkannt und arbeitet an entsprechenden Gesetzten, die Einsicht in die Algorithmen bringen soll. Damit soll eine Nachvollziehbarkeit der Ausgaben von KI gesichert werden. Ein wichtiger Schritt in die richtige Richtung.

Wir halten fest:

KI hat ein riesiges Potential und könnte viele gute Dinge bewirken. Wie die meisten technologischen Fortschritte in den vergangenen Jahrzehnten hat sie aber auch das Potential den Unterprivilegierten weiter zu schaden und den Privilegierten weiteren Reichtum zu verschaffen und somit den Spalt zwischen beiden weiter zu vergrößern.

Wie jedes neu funkelnde Ding ist KI letztendlich auch nur ein Spiegel und wird reflektieren, wer wir als Gesellschaft sind. Von den Besten bis hin zu den Schlechtesten.

Laurin Habermann

Sie möchten mehr über das Thema KI erfahren?

Dann informieren Sie sich hier über unsere individuellen KI-Beratungsangebote!