Matthias Pfeffer

Menschliches Denken
und Künstliche
Intelligenz

Eine Aufforderung

 

2021 im Verlag J.H.W. Dietz

Matthias Pfeffer (2021)  Menschliches Denken und Künstliche Intelligenz - Eine Aufforderung

2021  

160 Seiten

DNB.Buch   Bing.Buch

Goog.Autor 

dnb Person *1961


detopia   P.htm

Umweltbuch 

Demokratiebuch

Amerikabuch

 

Interview 2021  heise  KI-ist-in-der-Tat-dumm-aber-gleichwohl-extrem-maechtig-6219296.html 

Texte/Leseprobe.pdf  Verlag          Verlag.Buch mit Leseprobe

Telepolis Artikel heise  Die-Beinahe-Machtuebernahme 


Matthias Pfeffer geb. 1961, freier TV-Journalist, Produzent und Philosoph, war 20 Jahre lang Geschäftsführer und Chefredakteur von FOCUS TV, hat zahllose TV-Formate entwickelt und produziert. Er hat sich viele Jahre mit KI befasst und darüber geschrieben. Sein letztes Buch »Prinzip Mensch« (mit Paul Nemitz) schaffte es auf die Shortlist »Das Politische Buch« der Friedrich-Ebert-Stiftung. Pfeffer lebt in Berlin und in München.


Verlag

"Intelligente" Maschinen umgeben uns überall. Doch was macht digitale Technik mit uns, was macht Künstliche Intelligenz mit unserer Vernunft? Verstehen wir, wie sie uns dient, aber auch beherrscht?

Nein! Und diese Unklarheit ist gewollt, sagt Matthias Pfeffer. Was wir von Künstlicher Intelligenz erwarten dürfen und was wir heute tun müssen, damit wir morgen noch selbstbestimmt leben können – davon handelt dieses Buch. Es ist eine Einladung, über die Verführungskraft intelligenter Technologien nachzudenken.

Und eine Aufforderung, Künstliche Intelligenz nicht ohne menschliches Denken einzusetzen.

Ob autonome Autos oder autonome Waffen – die Anwendungsbereiche Künstlicher Intelligenz sind enorm und werden unser Leben auch in Zukunft immer stärker bestimmen. Aber kann eine Maschine überhaupt autonom sein?

Und was ist mit der These, dass die Menschen irgendwann durch eine überlegene Superintelligenz abgelöst werden? Wenn wir uns diesen beängstigenden Fragen nicht aktiv stellen, kann es irgendwann zu spät dafür sein. Eine freiheitliche Demokratie, die hier passiv bleibt, läuft Gefahr, eines Tages von der Macht Digitaler Konzerne und ihrer intelligenten künstlichen Helfershelfer übernommen zu werden.

Dagegen hilft nur kritisches Denken. Von Menschen für eine menschliche Welt.

Inhalt    Inhalt-DNB.pdf   

 

Einleitung (9)

Die beinahe Machtübernahme  (12)

2  Das digitale Paradoxon (22)

3 Schafft sich die Menschheit ab? (32)

4 Von der Herrschaft durch Technik zur Herrschaft der Technik? (41)

5 Der Todesalgorithmus  (52)

6 Das Täuschungsspiel  (58)

7 Kein Halt, nirgends!  (69)

8 Schnelles Rechnen, langsames Denken  (73)

9 What is it like to be a bot?  (80)

10 Kl denkt nicht  (89)

11 Zurück aus der Zukunft  (98)

12 Das Gewicht der Welt  (104)

13 Keine Freiheit unter dem Himmel - die Philosophie des himmlischen Friedens (116)

14 Der gekränkte Mensch  (129)

15 Kommen wir zur Vernunft  (136)

16 Regeln für den Maschinenpark  (156)

17  Digitale Vernunft?  (167)

Danke für den Austausch der Gedanken (173)

Über den Autor (174)     Anmerkungen (175)

     URL heise  Die-Beinahe-Machtuebernahme 

1. Die beinahe Machtübernahme

"Die Demokratie setzt die Vernunft im Volke voraus, die sie erst hervorbringen soll." Karl Jaspers

 

Am 6. Januar 2021 hält die Welt den Atem an. Ein aufgebrachter Mob stürmt, angefeuert durch den eigenen Präsidenten, das Kapitol in Washington und damit das Herz der amerikanischen Demokratie. Viele der Teilnehmer filmen live und übertragen den Sturm auf Amerikas Demokratie über Facebook. Einige tragen die Videokameras montiert auf ihren Helmen.

Der Facebook-Algorithmus schaltet dazu passende Werbung von Waffen und Militaria. Neben einem Sturmgewehr, einer schusssicheren Weste und Kisten voller Munition erscheint die Werbezeile: The survival gear that you are missing - Die Überlebensausrüstung, die Ihnen fehlt.

Die Teilnehmer hatten zuvor ihre Pläne ganz offen in den einschlägigen Gruppenchats besprochen, dennoch traf die Eskalation die Polizei für die Welt­öffentlichkeit erkennbar unvorbereitet.

Der Facebook-Algorithmus zeigte sich weniger überrascht, er sah schon den Bedarf an weiteren Waffen und Material voraus und regierte mit entsprechender Werbung. Ist er doch darauf trainiert, die Absichten der Nutzer aus ihren Datenspuren herauszulesen und ihnen dann entsprechend passende Kaufangebote zu unterbreiten.

Er weiß, was Sie brauchen, wenn Sie tagelang mit Gleichgesinnten den Sturm auf die Demokratie geplant haben, schließlich hat er selbst seinen Beitrag dazu geleistet. Denn er kann noch viel mehr, als nur Werbung verkaufen: Er kann Menschen mit ähnlichen Ansichten erkennen, schon bevor sie selbst wissen, dass sie diese Ansichten haben. Und daraus Absichten machen. Durch das permanente Durchpflügen gewaltiger Datenbestände, das Erkennen von Mustern und die Bildung milliardenfacher persönlicher Profile kann er größeres Wissen über seine Datenlieferanten gewinnen, als diese selbst über sich haben, deshalb ihre Vorhaben, Wünsche und Gefühle besser verstehen als sie selbst und darum auch besser steuern.

Durch gezielt verschickte Nachrichten und Beiträge kann er aus latentem Ärger über einzelne Angehörige von Bevölkerungsgruppen manifeste Fremdenfeindlichkeit machen, aus dem Ärger über bestimmte Politiker einen Hass auf die Demokratie. Bei diesem Prozess spielen Fakten kaum eine Rolle, sie sind sogar hinderlich. Der Algorithmus will Emotionen mobilisieren. Und er ist auf Steigerung aus, weil er Aufmerksamkeit gewinnen und nicht mehr abgeben will. Dabei hilft ihm eine zunehmende Polarisierung.

Eine bestimmte psychische Disposition des Nutzers, die er aus dessen Daten herausgelesen hat, kombiniert mit anderen Datenpunkten reicht ihm aus, um ihn einschlägigen Gruppen vorzuschlagen, die ihn dort mit weiterem "passenden" Material versorgen. Ein radikaler Anführer, der den Ton vorgibt, hat sich dort schon längst gefunden: Er hat die meisten Likes der anderen Gruppenmitglieder eingesammelt, indem er den Ärger durch immer spektakulärere und unglaublichere "Enthüllungen" und emotionalisierende Aufrufe befeuert. Wenn er noch dazu selbst der Präsident ist, umso besser.

So hat sich die Eskalation der Proteste gegen das Ergebnis einer demokratischen Wahl in der wichtigsten Demokratie, die lange als Anführer der freien Welt galt, vor den Augen eines alles sehenden Algorithmus abgespielt, der dabei keineswegs passiv blieb: Ist er doch darauf trainiert, die Nutzer, die ähnlich ticken, zusammenzubringen, um gleich einer ganzen Gruppe ein passendes Produkt zu empfehlen und sie durch "Anstupsen" dazu zu bringen, es dann auch zu kaufen.

Werbealgorithmen vs. Demokratie

An diesem Tag war die Zahl der entschlossenen potenziellen Käufer von Waffen und Militärausrüstung erfreulich hoch. Erfreulich für die Facebook-Algorithmen. Weniger erfreulich für die Demokratie.

Die Werbetreibenden konnten zufrieden sein: Ihre Botschaft erreichte eine zu hundert Prozent passende Zielgruppe, hatte doch der Algorithmus mitgeholfen, sie passend zuzurichten: Eine Gruppe von Menschen, die buchstäblich zu allem entschlossen war, vor allem dazu, Gewalt einzusetzen.

Der Algorithmus hatte seinen unmerklichen, aber wesentlichen Beitrag dazu geleistet, diesen Werbeerfolg zu ermöglichen. Mission accomplished. Dass dabei kurzzeitig die Demokratie am Abgrund stand, wurde als Kollateral­schaden in Kauf genommen.

Der gesellschaftliche Preis für ein solches Werbetool ist hoch, ihn zahlen am Ende alle. Denn der Algorithmus teilt die Bevölkerung in Gruppen und Grüppchen auf, je nachdem wo ihre Schwächen liegen und sie am leichtesten manipulierbar sind, und bestärkt sie dann in diesem Gruppendenken mit "passenden" Nachrichten.

Eine Untersuchung zeigte nach den Ereignissen des 6. Januar, dass in den Tagen nach der Erstürmung die Gruppen der Trump- und Biden-Sympathisanten jeweils zwei völlig unterschiedliche Wirklichkeiten bei Facebook angezeigt bekamen2 [3]. Das Ereignis wurde so zum Katalysator weiterer gesellschaftlicher Spaltung.

Alles Folge eines Werbemodells, das auf Personalisierung setzt und dabei den gemeinsamen Grund von Überzeugungen, der die Basis von Gemeinsinn bildet, gezielt untergräbt. Und Folge von Algorithmen, deren Belohnungs­systeme ausschließlich darauf programmiert sind, die Verweildauer der Nutzer und die Klickrate der Werbeanzeigen zu maximieren.

Ein Algorithmus, der alle überwacht und dabei die Strippen zieht, um die Überwachten in seinem Sinne zu lenken. Natürlich ist das eine Metapher. Die aber einen maßgeblichen Kern des neuen Überwachungskapitalismus trifft. So hat die US-amerikanische Autorin Shoshana Zuboff das neue digitale ökonomische System bezeichnet, das die Daten der Nutzer sammelt und auswertet, um aus ihnen Verhaltensprognosen zu erstellen, die an den Warenterminmärkten der Aufmerksamkeitsökonomie hoch profitabel gehandelt werden.3 [4]

Doch wer ist der Algorithmus, und wenn ja, wie viele?

Hinter diesen hochkomplexen Programmen lassen sich die Ziele der Unternehmen erkennen, die sie betreiben. Und einige von ihnen sind sehr tückisch. Man sollte glauben, dass sie ihr Ziel, die Klickrate zu erhöhen, um dadurch mehr Werbung zu verkaufen, lediglich dadurch verfolgen, dass sie dem Nutzer Informationen anzeigen, die er mag, damit er daraufklickt und das Produkt erwirbt.

Algorithmen formen den Nutzer

Das ist aber nur die Hälfte der Wahrheit. Im Online-Marketing werden sogenannte Bandit-(sic!)-Algorithmen, sowie Algorithmen für Reinforcement Learning (selbstverstärkendes Lernen) eingesetzt. Diese Algorithmen verfolgen nicht nur das Ziel, durch ihre Nachrichtenauswahl den Nutzer mit dem passenden Angebot zufriedenzustellen, sie versuchen vielmehr die Vorlieben der Nutzer so zu ändern, dass sie für den Algorithmus transparenter werden.

Einem durchschaubaren Nutzer lassen sich die passenden Waren leichter verkaufen und am einfachsten durchschauen lassen sich Menschen mit radikalen politischen Ansichten.

"Wie ein rationales Wesen lernt der Algorithmus, wie er den Zustand seiner Umgebung verändern kann, um die eigene Belohnung zu maximieren" so einer der weltweit führenden KI-Forscher über dieses perfide Modell.

Demnach wäre die politische Radikalisierung der Bevölkerung nicht nur eine unbeabsichtigte Nebenfolge ungehemmten Online-Marketings - sie wäre ihr Ziel. Die Verdummung und Spaltung der Gesellschaft als Geschäftsmodell, das die reichsten Unternehmen der Welt immer mächtiger macht und die demokratische Ordnung dabei unterminiert.

Noch erfolgt das eigentliche "Strippenziehen" in den sozialen Netzwerken durch recht dumme Algorithmen. Doch auch sie sind Teil der "Künstlichen Intelligenz", also von Programmen, die sich bei dem, was sie tun, "selbst" "verbessern", jedenfalls aber selbsttätig verändern.

Und die dabei immer besser werden, wenn es darum geht, ihre Ziele zu erreichen. Wenn schon die dummen Bandit-Algorithmen von Facebook die Demokratie an den Rand treiben, was haben wir dann von wirklich intelligenten Algorithmen zu erwarten?

Bei den am weitesten entwickelten Künstlichen Intelligenzen ist ein Programmierer nicht mehr erforderlich. Sie programmieren sich selbst.

Wer übernimmt dann die Verantwortung für das, was sie anrichten?

Nach dem Sturm auf das Herz der Demokratie war die Welt geschockt. Als die Ermittlungen begannen, wollte keiner dafür verantwortlich sein, auch diejenigen nicht, die sich doch bei der Erstürmung bildträchtig selbst in Szene gesetzt hatten. So tappte die Polizei, die unter den fünf Toten einen der ihren zu beklagen hatte, zunächst im Dunkeln.

Nicht so der Mitarbeiter eines Werbeunternehmens, der einige Tage danach mit einem brisanten Datensatz in den Redaktionsräumen der New York Times auftauchte. Unterm Arm: über einhunderttausend exakte Standortdaten für Tausende von Smartphones, deren Besitzer sich am 6. Januar in der Nähe des Kapitols aufgehalten hatten.

Exakte Bewegungsdaten von Trump-Anhängern, Randalierern, Passanten. Fast alle davon ließen sich den betreffenden Personen zuordnen, denen die Handys gehörten. Der Werbe-Whistleblower setzte die New York Times unter Druck, die Daten zu veröffentlichen, andernfalls werde er selbst bekannt machen, welche enorme Überwachungsmacht in den Diensten einer optimal geölten Werbemaschine inzwischen aufgebaut worden sei.

Enormen Wissen in den Händen der Werbeindustrie

Die New York Times veröffentlichte die Geschichte. Sie schrieb, die Messdaten ermöglichten einen Blick auf das Geschehen des "dunklen Tages" im Stil des "Auges Gottes".

Die Daten konnten auch belegen, dass vierzig Prozent der Smartphones, die sich während Trumps aufstachelnder Rede in der Nähe der Kundgebungsbühne auf der Nationalmall befunden hatten, später während der Belagerung im Kapitol geortet wurden und geben damit einen Hinweis auf die Ursachen des Geschehens. Enormes Wissen - in den Händen der Werbeindustrie.

"Unsere Privatsphäre der Regierung zu überlassen, wäre schon dumm genug. Noch heimtückischer ist jedoch der faustische Handel mit der Marketingindustrie, die jeden Standort-Ping in eine Währung verwandelt, da er auf dem Marktplatz der Überwachungswerbung gekauft und verkauft wird," schreibt die New York Times.

Der verständliche Protest gegen staatliche Überwachung laufe angesichts der kommerziellen Überwachungsmacht ins Leere: "Aber zu jedem anderen Zeitpunkt werden die Standortdaten von Hedgefonds, Finanzinstituten und Vermarktern überprüft, um mehr darüber zu erfahren, wo wir einkaufen und wie wir leben."

Die Gefahren, die solche Algorithmen bergen, und die Schäden, die sie anrichten, sind enorm, weil sie Milliarden Menschen auf der ganzen Welt beeinflussen. Sie erfordern, dass wir besser verstehen, wie sie funktionieren. Es ist wichtig, die unterschiedlichen Dimensionen dieses "faustischen Handels" zu beleuchten.

Mit welchem Mephisto lassen wir uns ein, wenn wir mit den Instrumenten der Digitalisierung erkunden wollen, was die Welt im Innersten zusammenhält und wie wir uns in ihr orientieren können? Welchen Preis zahlen wir am Ende, wenn wir uns bedenkenlos in seine Hände begeben? Und lautet dabei die neue Gretchenfrage vielleicht: Wie hältst du’s mit der Demokratie?

Fest steht: Durch die immer feine gesponnene Vernetzung aller Menschen mit allen Menschen, vor allem aber mit den datenhungrigen Riesenservern der Plattform­unternehmen, haben sich Formen der Überwachung und Manipulation entwickelt, die längst nicht mehr nur das Konsumverhalten steuern.

Die Sphäre der Öffentlichkeit, Garant und gleichzeitig Voraussetzung einer funktionierenden Demokratie, ist in den vergangenen Jahrzehnten durch eine ganze Reihe digitaler Technologien umgestaltet worden: durch Big Data, Cloud-Technologie, Internet of Things, Blockchain und vor allem durch Künstliche Intelligenz, die die gefährlichste Hochrisikotechnologie des 21. Jahrhunderts ist.

Denn sie zielt direkt auf das Vermögen des Menschen, das Selbstbestimmung erst ermöglicht: Auf die menschliche Vernunft, die sie durch eine überlegene Künstliche Intelligenz ablösen will. Zumindest wollen das einige der Propagandisten einer schönen neuen digitalen Welt, die alles andere als schön sein wird, wenn sie sich durchsetzen.

Die digitale Transformation hat bereits weltweit Demokratien unter Druck gesetzt. Sah es noch vor einigen Jahren durch Bewegungen wie den Arabischen Frühling so aus, als würden durch die digitalen Möglichkeiten Demokratie und Selbstbestimmung befeuert, rücken seit einiger Zeit die negativen Effekte dieser Entwicklung immer mehr in den Fokus.

Politisches Gegenprogramm notwendig

Die digitale Organisation einer solchen Freiheitsbewegung allein kann offenbar nicht ihren nachhaltigen Erfolg sichern. Dazu bedürfte es eines Zusammenschlusses von Menschen, die sich langfristig engagieren, ihre Interessen in einem politischen Programm umzusetzen.

Das Digitale kann einen solchen Zusammenschluss ermöglichen, es bietet aber keinen Ersatz für dauerhaftes Engagement und die institutionelle Absicherung erkämpfter Freiheiten. Demgegenüber funktionieren die Angriffe auf die Demokratie von innen wie außen durch Autokraten oder Populisten, durch Troll-Fabriken und Hacker digital umso besser.

Auch in Deutschland bekommen wir die Auswirkungen zu spüren. Nach einer Umfrage glauben nur noch weniger als die Hälfte der Deutschen, ihre Meinung frei sagen zu können.

Unfreiheit als Lebensgefühl in einem der freiesten Länder der Welt. Die gefühlte Freiheit weicht immer stärker von der verfassungsmäßig garantierten Freiheit ab. Der Grund ist nicht staatliche Überwachung, sondern sind rüde Umgangsformen und durch die allgegenwärtigen "Shitstorms" erzwungene Konformität an einen vermeintlichen Mainstream. Jeder zweite Bürgermeister im Land hat damit inzwischen einschlägige Erfahrungen, immer mehr überlegen deshalb, ihr Amt aufzugeben.

Die Mechanismen einer neuen automatisierten Öffentlichkeit unterminieren unmerklich, aber wirkungsvoll die Grundfeste der Demokratie. So hat sich die einst versprochene grenzenlose Freiheit des Cyberspace in ihr glattes Gegenteil verkehrt.

Wir müssen erneut fragen: Wenn bereits die derzeitigen dummen und auf Werbeklicks getrimmten Algorithmen von Facebook und Co. die Demokratie an den Abgrund führen, was haben wir dann in den kommenden Jahren von den Systemen zu erwarten, die sich Künstlicher Intelligenz bedienen, die täglich leistungsfähiger werden und immer mehr Steuerungsaufgaben "autonom" bündeln können?

Und das Tempo dieser Entwicklung steigert sich zusehends, denn die Schlüsseltechnologie der Digitalisierung, die Künstliche Intelligenz, entwickelt sich immer schneller. Es ist denkbar, dass an die Stelle einer Herrschaft durch Technik, die wir heute bereits sehen, auch einmal eine Herrschaft der Technik tritt.

Schließlich hören wir immer, dass KI dem Menschen überlegen sei und zunehmend eigene Entscheidungen treffen kann. Gerade deshalb wird sie ja überall eingesetzt. Um die menschlichen Schwächen, die in einer hoch technisierten Welt zum Risiko werden, zu beheben, um den Menschen selbst zu optimieren, diesen abgründigen und fehlerhaften Mutanten der Natur.

Und einige Fragen stellen sich ganz fundamental: Was passiert eigentlich mit unserem Denken, mit unserer Vernunft, wenn diese durch ihre eigene technische Erfindung übertroffen wird? Wird Homo Sapiens getrieben durch eine eigene Schöpfung zum Homo Digitalis mutieren und dabei seine Sapientia, seine Weisheit einbüßen? Wird er dadurch gar zum Homo Deus, zum Prothesengott seiner eigenen Schöpfung?

Und was, wenn KI dann so etwas wie Vernunft und Bewusstsein entwickeln oder zumindest solche Phänomene erfolgreich simulieren kann? Oder bleibt das unmöglich? Und darauf zu vertrauen, dass es die KI schon richten wird, eine gefährliche Illusion?

Vernunft und Technologie

Auf diese Fragen sucht das vorliegende Buch Antworten. Dafür lade ich Sie ein auf eine kurze Reise durch verschiedene Problemzonen der Künstlichen Intelligenz und der menschlichen Vernunft. Denn die menschliche Vernunft ist Schöpferin der Technologie, die ihr den Platz streitig macht. Sie hat dem Menschen den Aufbruch aus dem Reich der Natur in das der Kultur und Zivilisation überhaupt erst ermöglicht, allerdings auf diesem Weg auch unüberschaubar große Probleme erzeugt.

Im Zeitalter der höchsten jemals entwickelten Technologie treten mit der Klimakrise, dem durch den Menschen verursachten Artensterben und gewaltiger sozialer Ungleichheit auf dem Planeten Probleme auf, die die Moderne verursacht hat, scheinbar aber mit eigenen Mitteln nicht in den Griff bekommt.

Heute stellt sich die Frage, ob diese Probleme durch die Vernunft selbst geheilt werden können, die sie erzeugt hat, oder ob wir dazu das "Andere der Vernunft" brauchen, sei es in Gestalt einer technischen Superintelligenz oder einer unbegreiflich vernunftlosen höheren Macht.

Wollen wir dabei auf die Vernunft setzen, müssen wir zunächst konstatieren, dass sie derzeit weltweit auf der Anklagebank sitzt.

Sie gilt weithin als Verursacherin der großen Probleme, kaum als Mittel zu deren Lösung. Im Westen herrscht seit einigen Jahren ein radikales Vernunft-Bashing, das mit dem Scheitern der revolutionären Hoffnungen in Paris 1968 einsetzte, vor allem befeuert durch postmoderne Philosophen wie Foucault, Derrida und Lyotard, fortgesetzt durch heutige Denker der Identitätspolitik linker wie rechter Provenienz.

Die Vernunft wird darin als Verursacherin der Probleme gesehen, der kaum noch zugetraut wird, Teil der Lösung sein zu können.

Dieses Buch will einladen zum Denken. Denn das Denken ist nicht nur Werkzeug zum "Optimieren" von Wirtschaft und Technologie, sondern auch Mittel der Selbstbesinnung und Selbstbestimmung, von Kritik und schöpferischer Fantasie.

Deshalb kann vernünftiges Denken auch helfen, diese Fragen zu beantworten. Und wenn wir nachdenken, können wir kaum anders, als die Vernunft einzusetzen. Genau betrachtet haben wir dazu nur unvernünftige Alter­nativen, die die Probleme mit Sicherheit vergrößern, aber kaum lösen würden.

Jetzt werden Sie fragen: Wo bleiben in diesem Szenario die enormen Möglichkeiten zur Verbesserung des menschlichen Lebens, die KI bietet? Sie sollen keinesfalls in Abrede gestellt werden. Die wichtigste positive Leistung von KI ist, dass sie uns helfen kann, uns selbst und die Welt, in der wir leben, immer besser zu verstehen.

Aber das positive Potenzial, das KI in Verbindung mit anderen digitalen Technologien birgt, kann nur entfaltet werden, wenn wir verstehen, wie sie funktioniert und sie nach menschlichen Regeln entwickelt wird. Und wenn es gelingt, eine Möglichkeit zu entwickeln, sie auf Dauer zu kontrollieren.

Das bedeutet auch: bestimmten unerwünschten Entwicklungen klare Grenzen zu setzen. Andernfalls könnte ihr negatives Potenzial sehr schnell die Oberhand gewinnen und künftige Generationen zwingen, nach ihren Regeln zu leben. Das wäre dann kein menschliches Leben mehr, jedenfalls kein Leben in Freiheit.

Haben wir also den Mut, vernünftig zu denken. Denn wie sich zeigen wird, werden wir die Weisheit des Homo Sapiens weiter brauchen - auch und gerade im Zeitalter Künstlicher Intelligenz.

#

URL dieses Artikels:   https://www.heise.de/-6220055


 

Interview mit Matthias Pfeffer

 Interview 2021    KI-ist-in-der-Tat-dumm-aber-gleichwohl-extrem-maechtig

17.10.2021

"KI ist in der Tat dumm, aber gleichwohl extrem mächtig"

16. Oktober 2021 Harald Neuber

Erstürmung des Kapitols als Höhepunkt der demokratiefeindlichen Entwicklung von Social-Media-Plattformen: "Wir müssen daraus lernen."


Herr Pfeffer, Sie schreiben in Ihrem Buch "Menschliches Denken und Künstliche Intelligenz", wir würden von Algorithmen bestimmt. Wie das?

Matthias Pfeffer: Ich beschreibe, wie Künstliche Intelligenz immer stärker unser Leben durchdringt und uns dabei auch zunehmend Entscheidungen abnimmt. Wie stark wir uns wirklich von ihr bestimmen lassen, liegt aber noch immer an uns.

Die Bestimmung durch Algorithmen hat viel mit Bequemlichkeit zu tun: Sie bieten uns ein gewohntes Umfeld, Bilder, Kontakte.

Matthias Pfeffer: Ja, und die Bequemlichkeit, die sie im Alltag bieten, ist auch ein maßgeblicher Grund für ihren Erfolg. Aber die Bequemlichkeit kann auch zur Falle werden, wenn wir zunehmend unser Denken, Erinnern und Entscheiden an solche Systeme auslagern.Und wir dürfen dabei eins nicht vergessen: Die Bequemlichkeit entsteht nicht zuletzt durch personalisierte Datenprofile, auf deren Grundlage die Algorithmen herausfiltern, was für uns interessant sein könnte oder auch ihrer Meinung nach interessant sein sollte.
Wird dieses Micro-Targeting mit Techniken des Nudgings, also gezielten Anstupsens kombiniert, wird der Service, der in interessanten Angeboten besteht, schleichend zur Bevormundung. Besonders problematisch ist, dass diese Techniken, die ursprünglich für Produktwerbung entwickelt wurden, inzwischen ebenso in der Information und Meinungsbildung eingesetzt werden.

Dabei sind Algorithmen an sich dumm. Und doch können Sie, wie Sie schreiben, "Menschen mit ähnlichen Ansichten erkennen, schon bevor sie wissen, dass sie diese Ansichten haben - und daraus Absichten machen". Wie definieren Sie den Punkt, an dem ein grundsätzlich dummer Algorithmus zu einer menschen- und weltformenden Macht wird?

Matthias Pfeffer: KI ist in der Tat dumm, aber gleichwohl extrem mächtig. Das Problem entsteht, wenn die Algorithmen auf eine gewaltige Masse persönlicher Daten zugreifen können, die sie im Abgleich mit Big Data zu individuellen Profilen formen und schließlich durch Mustererkennung zu Verhaltensvorhersagen hochrechnen können. Das ganze passiert noch dazu in Echtzeit. Das macht gerade die Social-Media-Algorithmen so mächtig.
Dumm sind sie dennoch, weil sie ihr Ziel um jeden Preis verfolgen, das heißt, die eigenen Mittel nicht auf Angemessenheit überprüfen können. Das nennt der amerikanische KI-Forscher Steward Russel das derzeitige "Standard Modell der KI", dem wir viele der negativen Folgen von Social-Media-Plattformen zu verdanken haben.

Erstürmung des Kapitols: Hoffentlich ein Wendepunkt

In Ihrem Buch führen Sie anfangs die Erstürmung des Kapitols an. Was lässt sich aus dem Geschehen lernen?
Matthias Pfeffer: Die Erstürmung des Kapitols war ein vorläufiger Höhepunkt der demokratiefeindlichen Entwicklung von Social Media Plattformen und sie wird hoffentlich zu einem Wendepunkt. Wir müssen daraus lernen, dass solche Plattformen endlich Verantwortung für die Inhalte übernehmen müssen, die sie verbreiten und mit denen sie Milliarden verdienen.
Facebook hat alleine im vergangenen Jahr fast 30 Milliarden Dollar verdient. Doch langsam, wenn auch sehr spät, wächst dafür das Bewusstsein. Die Amerikaner prüfen nun wirksame Regulation, selbst Marc Zuckerberg fordert sie ja in seinem Statement zu den Äußerungen der Whistleblowerin Frances Haugen ein. Und die frischgebackene Friedensnobelpreisträgerin und Journalistin Maria Tessa bezeichnet Facebook als Gefahr für die Demokratie. Ich zeige in meinem Buch auf, warum sie recht hat.

Zeigt das Beispiel der Werbung für Waffen und Militärausrüstung während des Sturms auf das Kapitol nicht aber auch, dass KI an sich wertfrei ist, in Verbindung mit bestimmten Interessen - hier dem Verkauf von Waffen an Aufrührer und Terroristen - aber destruktiv wird?
Matthias Pfeffer: Diese Technik ist aus meiner Sicht nicht "wertfrei", weil sie wegen ihres grundlegenden manipulativen Charakters die Autonomie der Menschen untergräbt und damit ihre Freiheit aushöhlt, eigene Entscheidungen zu treffen. Dazu sind die Algorithmen auf Emotionalisierung ausgelegt, sie bevorzugen Lügen, Wut und Hass gegenüber Fakten.
Das kann man nicht als wertfreie Technik bezeichnen. Microtargeting auf der Basis ungeheuerer persönlicher Datenprofile hat in der öffentlichen Kommunikation und der politischen Willensbildung nichts verloren.
Der Kurzschluss mit "der Vernunft"

Sie führen die menschliche Vernunft als Mittel gegen die Gefahren einer unkontrollierten KI an. Gerade diese Vernunft stehe aber auf der Anklagebank und werde für alle Probleme verantwortlich gemacht. Wie kommen Sie zu dieser These?
Matthias Pfeffer: Wenn man sich die intellektuellen Debatten in der westlichen Welt in den vergangenen 40 Jahren ansieht, erkennt man ein Muster radikaler Vernunftkritik, das sich als der letzte Schrei ausgibt. Dabei geht das postmoderne Denken auf den Irrationalismus des 19. und beginnenden 20. Jahrhunderts zurück.
Damals machte man in der Kritik an den Auswüchsen der Moderne die wissenschaftlich-technische Rationalität für alle Fehlentwicklungen verantwortlich. Weil mit ihr die moderne Technik ihren Siegeszug antrat, identifizierte sie sich gleich ganz mit "der Vernunft".
Das ist aber ein Kurzschluss, weil es auch ästhetische und politische Vernunft gibt, die einer anderen, weil auf Verständigung zielenden Logik folgt. Gerade letztere brauchen wir heute dringender denn je. Heute wird aber leider dieser Vernunft kaum noch zugetraut, dass sie über Sprach- und Kulturgrenzen hinaus verbindliche Regeln des Zusammenlebens schafft. Schauen Sie sich nur den postkolonianistischen Diskurs an, in dem universelle Menschenrechte als bloße Waffe des westlichen Kolonialismus diffamiert werden.
Das hören die Chinesen gerne, ist aber ein Problem, weil wir umgekehrt der planetarischen Technik fraglos zutrauen, weltweite Standards zu setzen. Von denen werden wir dann bald regiert, wenn wir nicht entschlossen gegensteuern.

Der Homo sapiens wird also zum Homo digitalis?
Matthias Pfeffer: Ich behaupte, dass die Sapientia des Menschen der künstlichen Teil- und Scheinintelligenz überlegen ist und überlegen bleiben wird, wenn wir sie richtig einsetzen. Denn künstliche Intelligenz hat Grenzen, die sie aus logisch-mathematischen Gründen nicht überwinden kann. Denken Sie an Turings Halteproblem, das Algorithmen nicht lösen können.
Wesentlicher ist aber, dass sie nicht reflektieren und damit nicht kritisch abwägen und denken können und eigentlich nur in stabilen Systemen funktionieren. Unsere Welt ist aber ein sehr offenes System, wir müssen mit dem Überraschenden jederzeit rechnen. Da sind unsere Intuitionen besser geeignet. Wir brauchen unsere Weisheit weiterhin und dürfen uns von den Predigern einer überlegenen Künstlichen Intelligenz nicht verdummen lassen.
Ist die Erfolgsgeschichte der KI nicht eine direkte Folge der modernen Gesellschaften mit ihrer Überflutung mit Information und Wissen, in der sie die Welt künstlich vorordnet?
Matthias Pfeffer: Gerade die Corona-Krise hat diese Überforderung doch gezeigt. Ja, die Digitalisierung macht die Komplexität der modernen Gesellschaft sichtbar, bringt sie aber auch in Teilen erst hervor. Wenn wir diese Komplexität beherrschen und steuern wollen, müssen wir vom deskriptiven Beschreiben, dass die KI ermöglichen kann, zum normativen Gestalten der Zukunft übergehen. Da sind wir Menschen mit unserer politischen Vernunft gefordert. KI kann uns da nicht helfen. - Und gerade die Corona-Krise hat uns ja gezeigt, dass es am Ende auf die Einsicht und das freiwillige Verhalten der Menschen ankommt. Nur durch vernünftige Einsicht in grundlegende Fakten lässt sich das erreichen.

Ihr Lösungskonzept ist also?
Matthias Pfeffer: Über KI nachdenken, damit wir mit menschlichen Maßstäben die Zukunft vorausdenken und gestalten können. Dazu gehört angesichts der Anarchie der vergangenen Jahrzehnte vor allem, dass wir unser Recht fit machen für die digitale Zukunft, indem wir verbindliche Gesetze und Regel erlassen und übermächtige Konglomerate zerschlagen.

 

 

(Ordner)    www.detopia.de     ^^^^ 

Matthias Pfeffer (2021)  Menschliches Denken und Künstliche Intelligenz - Eine Aufforderung