EconPapers    
Economics at your fingertips  
 

Technikfolgen und Gesellschaft

Udo Milkau
Additional contact information
Udo Milkau: Digital Counsellor

Chapter 4 in Künstliche Intelligenz zwischen Ethik und Statistik, 2025, pp 111-165 from Springer

Abstract: Zusammenfassung Der normative Diskurs um eine „Ethics of AI“ ist stark von Anthropomorphismen um eine Semantik von „selbst-xxx“ geprägt. Beispielhaft steht dafür „selbst-lernend“, was aber nur missverständlich ein „unsupervided learning“ mit der statistischen Schätzung z. B. für einen „next best token“ in einer Textsequenz beschreibt. Um die realen Technikfolgen von AI-basierten Systemen zu betrachten, ist es notwendig, solche Narrative über menschenähnliche Maschinen von den realen Möglichkeiten und Rahmenbedingungen von AI-basierten Systemen zu unterscheiden. Zum einen ergeben sich viele der mit AI konnotierten Ängste aus der Furcht vor einem Kontrollverlust, welcher aber seine Wurzeln in der literarischen Fiktion und in dystopischen Narrativen hat. Zum anderen basierten gerade die aktuell viel diskutierten Systeme der „Generative Artificial Intelligence“ auf von Menschen produzierten Korpora von Texten, Bildern oder auch Videosequenzen. Entsprechend werden auch alle damit generierten „next best token“ diese „menschliche“ Datensammlungen spiegeln und einen „wahrscheinlichsten“ Mittelwert ausgeben. Wenn man dies – mit entsprechendem Hintergrundwissen – durch entsprechend gewählte Eingabe-Prompts in eine gewisse Richtung lenkt, wird die Ausgabe die Eingabe nur widerspiegelnn – ein Phänomen, welches seit dem ersten ChatBot „ELIZA“ von 1966 bekannt ist. Und wenn man solche Werkzeuge einsetzt, um mittels Eingaben in natürlicher Sprache dann Antworten auf Kundenanfragen, entsprechend geschriebene Softwareprogramme oder eine Zusammenfassung von Sitzungsprotokollen zu generieren, dann werden diese statistischen Werkzeuge dem innewohnenden „Trend zum Mittelwert“ folgen, um ein wahrscheinlichstes Ergebnis zu produzieren. Für weniger erfahrene Arbeitskräfte kann dies eine durchaus sinnvolle Augmentierung bedeuten und sie – ohne traditionelle Schulung und Weiterbildung – an eine mittlere Produktivität heranführen, wobei dies immer eine Kosten-Nutzen-Abwägung zwischen menschlicher Fehlerrate, „mittelmäßig“ generierten Outputs und den dafür notwendigen Implementierungskosten bedeutet. Eine echte kognitive Leistung, Kreativität oder gar Empathie ist aber nicht zu erwarten. Letztlich ist dieser „Trend zum Mittelwert“ und ein fehlendes Verständnis um die Grundlagen von solchen Werkzeugen für statistische Schätzungen der Kern des Risikos bei einer naiven Verbreitung von „Artificial Intelligence“, den aktuellen ChatBots oder den avisierten „AI-Agenten“, welche quasi auf Zuruf automatisch und unkontrolliert Aktionen an Schnittstellen zur realen Welt vornehmen können (von der Reiseplanung bis zur Überwachung von biometrischen Trackersignalen). Ob wir dies als Gesellschaft so wollen, ist die offene Frage, die aber weder von Marketingversprechen der Hersteller noch von Vertretern eines dystopischen „Doomerism“ beantwortet werden sollte.

Date: 2025
References: Add references at CitEc
Citations:

There are no downloads for this item, see the EconPapers FAQ for hints about obtaining it.

Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.

Export reference: BibTeX RIS (EndNote, ProCite, RefMan) HTML/Text

Persistent link: https://EconPapers.repec.org/RePEc:spr:sprchp:978-3-658-48335-7_4

Ordering information: This item can be ordered from
http://www.springer.com/9783658483357

DOI: 10.1007/978-3-658-48335-7_4

Access Statistics for this chapter

More chapters in Springer Books from Springer
Bibliographic data for series maintained by Sonal Shukla () and Springer Nature Abstracting and Indexing ().

 
Page updated 2025-10-10
Handle: RePEc:spr:sprchp:978-3-658-48335-7_4