Ein kleiner Einblick in die Risiken hinter dem digitalen Hirn

Die auf Software basierende Technologie, welche im November durch die Veröffentlichung des Chatbotes “ChatGPT” des Start-ups OpenAI einen erneuten Aufstieg ausgelöst hat, gilt als eine der bedeutendsten Technologien des 21. Jahrhunderts und hat in den letzten Jahren eine rasante Entwicklung erfahren.Mit der Fähigkeit, komplexe Aufgaben zu bewältigen und sich selbst zu verbessern, haben KIs (Künstliche Intelligenzen) das Potenzial, zahlreiche Aspekte unseres täglichen Lebens zu verändern. Dabei spielt es keine Rolle, ob die Automatisierung von Arbeitsprozessen oder die Schaffung intelligenter Systeme, die uns bei der Lösung komplexer Probleme unterstützen können, thematisiert wird. Doch während die Vorteile der KI immer mehr ins Rampenlicht gerückt werden, gibt es auch Bedenken und Kritik hinsichtlich ihrer möglichen Auswirkungen auf die Gesellschaft, wie etwa die mögliche Ersetzung menschlicher Arbeitskräfte und der Verlust der Privatsphäre.

KIs sind im Grunde Computerprogramme, die darauf ausgelegt sind, menschenähnliche Fähigkeiten zu imitieren, weiterzuentwickeln und sogar zu übertreffen. Die Idee hinter KIs ist, dass sie komplexe Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern würden. Die Technologie dahinter basiert auf Algorithmen und statistischen Modellen, die es den KIs ermöglichen, aus großen Datenmengen zu lernen und sich selbst zu verbessern. Diese Technologie hat das Potenzial, viele Bereiche unseres Lebens zu revolutionieren, von der Medizin über die Finanzwelt bis hin zur Automatisierung von Arbeitsprozessen.

Unausgereifte KIs gelten als potenzielle Gefahr.

Seit der Veröffentlichung KIs der Gruppe “Artificial General Intelligence” (AGI), welche die Fähigkeit einschließt, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann1, gibt es Fälle, in denen die fahrlässige Nutzung von Künstlicher Intelligenz zu Unfällen oder unerwarteten Ergebnissen geführt hat. Die Wirksamkeit künstlicher Intelligenz hängt von der Konzipierung und den verwendeten Daten ab. Sowohl Daten als auch Konzipierung können absichtlich oder unabsichtlich manipuliert werden. Beispielsweise können potentielle Aspekte eines Problems, die essentiell sind, nicht in den Algorithmus aufgenommen oder so programmiert werden, dass sie eine Wirkung haben oder repliziert werden. Auch besteht die Gefahr, dass Unausgereifte KIs mit Viren oder anderen Schadprogrammen manipuliert werden, um sie für böswillige Zwecke einzusetzen. Wenn Angreifer die KI manipulieren können, können sie sie dazu bringen, falsche Entscheidungen zu treffen oder falsche Informationen bereitzustellen, mit potenziell katastrophalen Folgen.

Ein bekanntes Beispiel dafür ist der Unfall eines selbstfahrenden Uber-Autos im Jahr 2018, bei dem ein Fußgänger ums Leben kam. Das Auto verfügte über eine KI, die es ihm ermöglichte, selbstständig zu fahren. Während der Fahrt jedoch, trat ein technischer Fehler auf und das System betrachtete die Frau, die die Straße überquerte, nicht als Hindernis. Das Auto fuhr mit voller Geschwindigkeit auf sie zu und kollidierte mit ihr. Die Kollision löste eine hitzige Diskussion über die Sicherheit selbstfahrender Autos und die Einbindung von KI in den Verkehr aus. Es wurde festgestellt, dass das Auto zwar über verschiedene Sensoren und Kameras verfügte, die KI jedoch nicht in der Lage war, die Situation zu erkennen und angemessen zu reagieren.

Ein anderer Fall, bei denen KI-Systeme aufgrund von Programmierfehlern oder mangelnder Überwachung unerwartete Ergebnisse liefern, ist der Chatbot “Tay”. Der von Microsoft entwickelte Chatbot, der 2016 auf Twitter gestartet wurde, soll Gespräche führen, die Menschen ähneln, und sich selbst verbessern, indem es aus Interaktionen mit aktiven Usern lernt. Innerhalb der folgenden 24 Stunden wurde der Bot jedoch heruntergefahren, nachdem er rassistische und sexistische Kommentare abgegeben hatte, die es von den Benutzern lernte.

Solche Vorfälle zeigen die Notwendigkeit, den Einsatz von KI-Systemen sorgfältig zu überwachen. Außerdem ist es wichtig, die potenziellen Risiken zu berücksichtigen und Sicherheitsmaßnahmen zu ergreifen, um solche Vorfälle zu vermeiden.

Künstliche Intelligenz als entscheidende Macht.

Im Zusammenhang mit KI und der Fähigkeit, selbständig Entscheidungen zu treffen, stellen sich oft Fragen zur Sicherheit, denn KI-Systeme können nur so gut sein, wie die Daten, auf denen sie trainiert werden. Wenn Entscheidungen von automatisierten Systemen getätigt werden, sind diese oft nicht transparent und schwer nachvollziehbar. Dies erschwert es, die Entscheidungen zu überprüfen und gegebenenfalls zu korrigieren, falls sie sich als fehlerhaft oder unangemessen herausstellen sollten. Es ist auch schwierig, den Verantwortlichen für unangemessene Entscheidungen zur Rechenschaft zu ziehen, da die Entscheidungen von einer KI getroffen wurden, die keine moralischen oder ethischen Überlegungen anstellt.

Systeme der künstlichen Intelligenz sind bereits in vielen Bereichen des menschlichen Lebens präsent und werden immer häufiger eingesetzt. Besorgniserregend ist jedoch die Möglichkeit, dass Systeme der künstlichen Intelligenz selbständig Entscheidungen treffen und die Verantwortung von Menschen auf Maschinen verlagern. Besonders in Militär- und Sicherheitsanwendungen kann dies zu gefährlichen Entscheidungen führen, das Leben bedrohen und sogar Kriegsverbrechen begehen. Experten wie Professor Hannes Federrath1, Präsident der Gesellschaft für Informatik, warnen vor der Entwicklung autonomer Waffensysteme, da dies zu unkontrollierbaren Konflikten führen und Fehleinschätzungen automatisierte Vergeltungsangriffe auslösen könnten.

Ein weiteres Beispiel dafür ist der Einsatz von automatisierten Entscheidungssystemen in der Justiz. In einigen Ländern werden bereits KI-Systeme eingesetzt, die auf Basis von Datenanalysen und statistischen Modellen Vorhersagen darüber treffen, wie wahrscheinlich es ist, dass ein Angeklagter in Zukunft erneut straffällig wird, um Entscheidungen über Haftstrafen oder Bewährungsauflagen zu treffen. Die KI-Systeme sollen dabei helfen, objektivere Entscheidungen zu treffen, indem sie aufgrund der verfügbaren Daten und Fakten eine bessere Vorhersage über das Risiko einer Wiederholungstat ermöglichen. Allerdings gibt es Bedenken, dass diese Systeme möglicherweise voreingenommen sind oder diskriminierende Ergebnisse wiedergeben können, da sie auf vergangenen Daten basieren, die selbst möglicherweise rassistische oder andere Vorurteile beinhalten. Beispielsweise könnten bestimmte Bevölkerungsgruppen aufgrund von Stereotypen oder Vorurteilen falsch eingeschätzt werden, was zu unfairen Entscheidungen führen könnte.

KIs als mögliches Risiko unserer Privatsphäre.

Der Einsatz künstlicher Intelligenz könnte dazu führen, dass unsere personenbezogenen Daten und Informationen in die Hände von Unternehmen und Regierungen gelangen. KI-Algorithmen können große Datenmengen schnell analysieren und Muster erkennen, die Menschen nicht können. Durch diese Analyse können Verhaltensmuster erkannt und individuelle Vorlieben und Interessen ermittelt werden, die dann zur gezielten Beeinflussung genutzt werden können.

Ein Beispiel hierfür ist das sogenannte „Micro-Targeting“, bei dem beispielsweise Algorithmen der künstlichen Intelligenz Informationen über das (Online-)Verhalten von Personen sammeln und analysieren, um personalisierte Werbung zu erstellen. Dies kann dazu führen, dass Menschen unbewusst beeinflusst werden, ohne es zu wissen.

Die Kombination aus „Micro-Targeting“ und „Gesichtserkennungstechnologie“ könnte eine noch größere Bedrohung für die Privatsphäre darstellen, insbesondere in einem Land wie China mit einer starken Überwachungskultur. Hier wird das “Sozialkredit-System” (Social Credit System) von der Regierung verwendet, um das Verhalten der Menschen zu überwachen und zu bewerten. Personen mit niedrigem Rang können von bestimmten Diensten und Gelegenheiten ausgeschlossen werden, während hochrangige Personen bevorzugt behandelt werden.

Die Bewertung des Sozialkredit-Systems basiert auf einer Vielzahl von Faktoren, darunter finanzielle Verantwortung, strafrechtliche Verurteilungen, soziales Verhalten, Arbeitsleistung und mehr. Ein höheres Ranking kann zu schnelleren Kreditgenehmigungen, besseren Beschäftigungsmöglichkeiten, günstigeren Mietobjekten und mehr führen. Ein niedrigeres Ranking kann hingegen zu Einschränkungen im täglichen Leben führen, wie zum Beispiel einem Verbot, mit dem Flugzeug oder Zug zu reisen, oder einem Verlust der Fähigkeit, bestimmte Berufe auszuüben.

Der Einsatz von Algorithmen der künstlichen Intelligenz und der Überhäufung platzierter Kameras ermöglicht es der chinesischen Regierung, das soziale Ranking-System effektiver zu nutzen, indem das Verhalten der Menschen in Echtzeit überwacht und bewertet wird. Die Privatsphäre der Betroffenen wird dadurch massiv verletzt, da sie möglicherweise nicht wissen, dass sie überwacht werden und welche Daten über sie gesammelt und verwendet werden.

Um diese Bedrohung der Privatsphäre zu mindern, müssen strenge Datenschutzgesetze und -richtlinien entwickelt und durchgesetzt werden. Es ist auch wichtig, die Menschen über ihre Rechte zu informieren und darüber, wie ihre Privatsphäre geschützt werden kann. Die internationale Gemeinschaft muss sich auch gegen den Einsatz von künstlichen Intelligenzalgorithmen und hardwarebasierten Endgeräten zum Schutz der Privatsphäre der Menschen und zur Verhinderung der Entstehung von Überwachungsstaaten wie China stellen.

Wie sollten wir zukünftig mit KIs umgehen?

KIs werden zunehmend in vielen Bereichen unseres Lebens eingesetzt, von Medizin und Finanzen bis hin zu Autos und Einzelhandel. Während die Vorteile von KIs klar sind, gibt es Risiken, die berücksichtigt werden müssen.

In Zukunft sollten Verbraucher eine große Verantwortung für KI tragen, um sicherzustellen, dass sie nicht nur effektiv und effizient, sondern auch sicher und ethisch einwandfrei arbeiten. Dazu gehört, dass KI transparent und rechenschaftspflichtig für ihre Handlungen und Entscheidungen sein muss. Darüber hinaus ist es wichtig, den Datenschutz und die Privatsphäre der Benutzer zu gewährleisten und sicherzustellen, dass KI ohne Zustimmung nicht auf personenbezogene Daten zugreifen oder diese verwenden kann. Auch sollte darauf geachtet werden, dass KIs bestehende Vorurteile und Ungleichheiten nicht diskriminiert oder verstärkt werden. Dies erfordert, dass die KIs fair und objektiv programmiert und trainiert sind, um sicherzustellen, dass sie keine unbeabsichtigten Folgen haben.

Zusätzlich muss stets die Regel gelten, dass Künstliche Intelligenzen im Einklang mit unseren menschlichen Werten und Bedürfnissen arbeiten. KIs sollten uns dienen und unser Leben verbessern, nicht ersetzen oder dominieren. Wenn wir dies einhalten, diese verantwortungsvoll einsetzen und uns an ethische Herausforderungen anpassen, kann sie uns und unserer Gesellschaft enorme Vorteile bringen.

Artikel: Vincent T.