Zum Hauptinhalt springen
Nachrichten

Wenn künstliche Intelligenz versagt

durch 11. September 2023Keine Kommentare

Wann Künstliche Intelligenz Fehlschläge: Eine detaillierte Analyse

Künstliche Intelligenz wurde in den letzten Jahren als technologisches Allheilmittel für eine Vielzahl von Problemen – vom Gesundheitswesen bis zur Cybersicherheit – gepriesen. Mit der Weiterentwicklung von KI-Systemen werden sie jedoch auch fehleranfälliger. Dieser Artikel untersucht anhand von Fallstudien und Vergleichen mit menschlichem Denken und Intuition, wie und warum künstliche Intelligenz versagen kann.

Dialogfehler: Die Fehler in Gesprächen mit KI

Ein deutliches Beispiel für die Ungenauigkeit von KI ereignete sich, als Natasha Singer, Journalistin der New York Times, ChatGPT, eines der fortschrittlichsten Konversationsmodelle, bat, ihr beim Verfassen eines Bewerbungsaufsatzes für Harvard, Yale und Princeton zu helfen. Das Modell machte einen schwerwiegenden Fehler, indem es ein unpassendes Lied als Soundtrack zum Leben der Journalistin vorschlug. Dies wirft die Frage auf, ob KI in der Lage ist, kulturelle Kontexte und soziale Normen zu verstehen – Schlüsselfaktoren für die Generierung angemessener Antworten.

Das falsche Versprechen des technischen Fortschritts

Entgegen der Erwartung haben neuere Studien gezeigt, dass die Effizienz von Modellen wie ChatGPT tatsächlich abnimmt. Untersuchungen renommierter Universitäten wie Stanford und Berkeley haben ergeben, dass die Genauigkeit der Antworten dieser Modelle im Laufe der Zeit dramatisch abgenommen hat. Interessanterweise scheinen neuere Versionen des Modells schlechter abzuschneiden als ältere. Dieses Phänomen deutet darauf hin, dass Software-Updates, die die Effizienz des Modells verbessern sollten, dessen Funktionalität möglicherweise beeinträchtigt haben.

Künstliche Intelligenz und Unsicherheit: Ein Vergleich mit dem menschlichen Geist

Die Fehlbarkeit von KI beschränkt sich nicht nur auf Programmierfehler oder Missverständnisse im Kontext. Auf einem kürzlich abgehaltenen Symposium diskutierten Experten wie Veronica Barassi und Greg Gigerenzer die Fähigkeit von KI, mit unsicheren Situationen umzugehen. Gigerenzer untersuchte insbesondere Heuristiken, eine Form des adaptiven Denkens, die Menschen nutzen, um in unsicheren Situationen Entscheidungen zu treffen. Ihm zufolge mag KI zwar in deterministischen Szenarien wie Schach effektiv sein, scheitert aber an der Bewältigung unsicherer Situationen, die eine adaptivere und flexiblere Art des Denkens erfordern.

Intuition: Die Geheimwaffe der Menschheit

Neben der Heuristik ist Intuition ein weiterer Aspekt, der den menschlichen Verstand von KI unterscheidet. Gigerenzer argumentiert, Intuition sei ein Produkt der menschlichen Evolution und ermögliche es Menschen, schnelle Entscheidungen auf der Grundlage von Bauchgefühlen statt detaillierter Analysen zu treffen. Diese Fähigkeit scheint bei künstlicher Intelligenz, die auf Algorithmen und Daten angewiesen ist, nahezu nicht vorhanden zu sein.

Heterogene Fehler: Diskriminierung und kulturelle Fehlbarkeit

Veronica Barassi beleuchtete in ihrem Projekt „The Human Error of Artificial Intelligence“ die Anfälligkeit von KI. Sie zeigt, wie KI-Systeme häufig in Rechts- und Überwachungsanwendungen eingesetzt werden und so die Risiken von Profiling und Diskriminierung aufdecken. Ein bemerkenswerter Fall war die irrtümliche Verhaftung eines Mannes in Detroit aufgrund eines Fehlers in einem Gesichtserkennungssystem.

Die Notwendigkeit einer öffentlichen Debatte und zukünftiger Überlegungen

Zusammenfassend lässt sich sagen, dass Fehler in der künstlichen Intelligenz ein komplexes Problem darstellen, das über einfache technische Unzulänglichkeiten hinausgeht. Es erfordert eine öffentliche Debatte unter Beteiligung von Experten, Institutionen und der Zivilgesellschaft. In einer Zeit, in der künstliche Intelligenz in allen Bereichen unseres Lebens immer stärker durchdringt, ist es unerlässlich, innezuhalten und über die Grenzen und ethischen Auswirkungen der von uns implementierten Systeme nachzudenken.

Hinterlasse eine Antwort