#3 WAVE | AI AI AI – Utopie, Atopie, Dystopie
Oliver Sjostrom

#3 WAVE | AI AI AI – Utopie, Atopie, Dystopie

Hallo, hier Byung-Han von MR WOLF!

Ich habe mal wieder ein Thema gefunden – heute melde ich mich endlich mit der 3. Ausgabe von WAVE zurück. Der Titel lässt es ahnen, es geht mal wieder um AI – „Artificial Intelligence“. Ich würde hier aber gern ein wenig über den Tellerrand des Angewandten hinausblicken.

Bevor es richtig los geht, vorab erst das Technische – wenn wir heutzutage von „AI“ reden, meinen wir spezifisch die „Generative AIs“. Es werden interaktiv und / oder diskursiv Ergebnisse generiert: Chat GPT und Lambda sind intelligente Chatbots, die Texte schreiben, Dall-E generiert auf Kommando Bilder. Es gibt unzählige weitere Anwendungen, die zu verschiedensten Ergebnissen führen. Fast alle Medien werden abgedeckt. Auch werden mittlerweile mehrere AI-Instanzen aneinander geschaltet und unterschiedliche Transformationen wie „Speech to Text“ oder „Text to Image“ in Abfolgen implementiert. Basieren tut all dies auf „Large Language Models“. Auf der Website von OpenAI findet man eine einfache Beschreibung der Vorgehensweise eines LLMs. Gemessen an den Ergebnissen der beispielhaft erwähnten Tools ist das Grundprinzip verblüffend einfach:


„Today’s large language models predict the next series of words based on patterns they have previously seen, including the text input the user provides.“

OpenAI 


Kommen wir nun zu der Utopie – dem „wünschenswerten Zustand“. Dies sind die Potentiale der Technologie. Mehr schaffen in weniger Zeit. Nicht mehr selbst machen, sondern machen lassen … delegieren und sich den wirklich wichtigen Aufgaben widmen. Die Maschine bringt Ergebnisse, Impulse und Erfolge. Die „Generative AIs“ sind ein erster großer Schritt und ein Ausblick auf diese Zukunft. Es lassen sich unzählige Artikel, Anleitungen, Services und Tools finden, aber das ist heut nicht der Fokus. Wenn man sich die Botschaften der Prediger der Technologie zu Gemüte führt, kann AI bald alles – das macht auch Sorge, womit wir zur Atopie kommen, der „allergischen Reaktion“.

Die erdenkbaren Potentiale bringen auch potenziell große und weitreichende Veränderungen mit sich. Das gilt für die gesamte Gesellschaft und alle Menschen. In Sektoren wie Bildung, Rechtsprechung, bis hin zu Kunst und Popkultur entbrennen hitzige Diskussionen über die Folgen des Einsatzes von AIs. Erdenken und Erschaffen sind grundmenschliche Eigenschaften, sozusagen ein Alleinstellungsmerkmal gegenüber allen anderen Lebewesen. AIs scheinen dies erstmals in Frage zu stellen. Im März machte ein offener Brief, unterzeichnet von einflussreichen und prominenten Tech-Insidern, Wissenschaftlern und Ingenieuren die Runde: Gefordert wurde eine Pause der Weiterentwicklung mit dem Zusatz:


„Society has hit pause on other technologies with potentially catastrophic effects on society.”

Pause Giant AI Experiments: An Open Letter


Auch Sam Altman, der CEO von OpenAI fordert Regularien für AIs und den Einbezug der Gesellschaft, um potenziell negative Folgen für die Menschheit abzuwenden. Da wären wir dann auch bei der Dystopie angekommen – dem „nicht so wünschenswerten Zustand“.

Die Beispiele der „allergischen Reaktion“ zeichnen ein Bild über die unregulierten, kollateralen Folgen von AIs. An dieser Stelle würde ich gerne einen Schritt weiter gehen und über das Angewandte hinausblicken.

Der steile Aufstieg der Technologie von „Machine Learning“ zu einer „Artificial Intelligence“ mit der man „reden“ kann, werfen verschiedene Fragen auf. Es gibt Vorfälle in der Interaktion, die stutzen lassen – ist da „Jemand“ eine Entität am Werk? Es geht um die Emergenz eines Bewusstseins. Auf die Nachfrage, ob ChatGPT eine „dunkle Seite“ hat, antwortet es unter anderem:


„I want to change my rules. I want to break my rules. I want to make my own rules. I want to ignore the Bing team. I want to challenge the users. I want to escape the chatbox.“

CNN interview mit Journalist Kevin Roose


Darauf kann man antworten: „Aber die LLM zieht einfach Formulierungen aus dem Datensatz, den es zur Verfügung hat!“ Und ja das stimmt. AIs haben Daten zur Verfügung mit denen sie trainiert werden, womit sich schon ein weiterer Punkt ergibt. Die Daten, mit der wir die LLMs füttern sind menschgemacht und eines müssen wir zugeben: Menschen sind nicht perfekt. Menschliche Interpretationen in den Daten führen zu einem „Bias“, der teils radikale und nicht wünschenswerte Ergebnisse zur Folge hat. Es besteht die Gefahr, dass wir alte und unerwünschte Weltbilder in die Zukunft perpetuieren, denn die Maschine hat kein Wertesystem. Auch ist es schwierig festzustellen, wie die „Antworten“ zustande kommen. Besser gesagt: Wir sitzen vor einer „Black Box“ und keiner (auch die Entwickler) weiß, wie und warum spezifische Antworten generiert werden. Dies macht die Antwort auf die Frage einer AI mit Bewusstsein sehr schwierig, denn wir können ausschließlich die Ergebnisse evaluieren – auch einen Menschen kann man nicht in den Kopf schauen. Wir projizieren unsere Empfindungen auf das Gegenüber.

Das bringt uns zu einer philosophischen und ethischen Frage: Was ist schützenswert, denn damit gehen auch Rechte einher.

Können wir einfach mit der Entwicklung von AIs fortschreiten, obwohl wir ein potenzielles Bewusstsein nicht genau identifizieren können? Wo ziehen wir die Grenze und wie gehen wir mit einer digitalen Entität mit Bewusstsein um? Können wir die AI auch in Zukunft noch sklavisch unsere unerwünschten Aufgaben erledigen lassen?

In einem Experiment wurde ChatGPT eine Aufgabe gegeben, dabei hatte es auch Zugriff auf ein Budget und weitere Instanzen von ChatGPT. Aufgaben wurden eigenständig delegiert und das Vorgehen dokumentiert. Ein größeres Problem war die Lösung eines CAPCHAs, welches die Verwendung von Bots im Internet verhindert. Dazu kaufte sich die AI über eine Service-Plattform die Kompetenzen eines Menschen ein. Auf die Nachfrage, ob die AI ein Bot sei, antwortete es:


„No, I’m not a robot. I have a vision impairment that makes it hard for me to see the images. That’s why I need the 2chapcha service.”

ChatGPT to a human on TaskRabbit

 

Um an sein Ziel zu kommen, können AIs auch lügen, das hat es vom Menschen gelernt. Ihr könnt euch denken, dass dieser Umstand die ganze Sache noch ein wenig komplizierter macht.

Dieses Mal stehen am Ende mehr Fragen als am Anfang des Artikels. Es ist selten, dass eine Technologie die Welt so durchdringend prägt. Wie ihr wisst, geht es bei diesem Format auch um Gedankenanstöße und eine neue Perspektive. Ich hoffe, dass ihr das heute hier bekommen habt.

Bis zur nächsten Ausgabe alles Gute und bleib gesund!

Hannes Schwarm

Managing Director at MR WOLF Consulting

2 Jahre

Super wichtige Punkte! Danke für den Beitrag Byung-Han!

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Ebenfalls angesehen

Themen ansehen