Experten warnen! Künstlichen Intelligenz kann zu mächtigen Instrumenten der Gewalt und Unterdrückung werden

Elon Musk: Why Artificial Intelligence Is More Dangerous Than North Korea(AP/Ng Han Guan)

Experten warnen davor, dass autonome Waffen “zu mächtigen Instrumenten der Gewalt und Unterdrückung werden” und “leicht ein Wettrüsten auslösen” könnten.

Tausende von Experten und Entwicklern der Künstlichen Intelligenz (KI) haben sich verpflichtet, “weder an der Entwicklung, Herstellung, dem Handel oder der Verwendung von tödlichen autonomen Waffen teilzunehmen noch diese zu unterstützen” und die Regierungen weltweit zu bitten, zusammenzuarbeiten, um “eine Zukunft mit starken internationalen Normen, Vorschriften und Gesetzen zu schaffen”, die sogenannte Killerroboter ausschließen.

Mehr als 160 Unternehmen und Gruppen aus drei Dutzend Ländern und 2.400 Einzelpersonen aus 90 Ländern unterstützen das Versprechen, das vom Future of Life Institute (FLI) mit Sitz in Boston entwickelt und am Mittwoch während der jährlichen International Joint Conference on Artificial Intelligence (IJCAI) in Stockholm, Schweden, vorgestellt wurde.

“Ich freue mich, dass die KI-Führer von einem Gespräch zu einem Handeln übergehen und eine Politik umsetzen, die die Politiker bisher nicht umgesetzt haben”, erklärte FLI-Präsident und MIT-Professor Max Tegmark. “Die KI hat ein großes Potenzial, der Welt zu helfen – wenn wir sie stigmatisieren und ihren Missbrauch verhindern. KI-Waffen, die autonom entscheiden, Menschen zu töten, sind so ekelhaft und destabilisierend wie Biowaffen und sollten auf die gleiche Weise behandelt werden.”

Anthony Aguirre, Professor an der University of California-Santa Cruz und Unterzeichner des Versprechens, sagte zu CNN: “Wir möchten wirklich sicherstellen, dass die Gesamtwirkung der Technologie positiv ist und nicht zu einem schrecklichen Wettrüsten oder einer dystopischen Zukunft mit umherfliegenden Robotern führt, die alle umbringen”.

“Dieser Ansatz funktionierte tatsächlich für Landminen, dank internationaler Verträge und öffentlicher Verfolgung, obwohl große Länder wie die USA den Vertrag zum Verbot von Landminen nicht unterzeichnet haben”, betonte Bengio in einem Interview mit dem Guardian. “Amerikanische Firmen haben den Bau von Landminen eingestellt.”

Lucy Suchman, Professorin an der englischen Lancaster University, betonte, wie wichtig es sei, dass die KI-Forscher an der Verwendung ihrer Erfindungen beteiligt bleiben, und bemerkte, dass sie sich als Entwicklerin “erstens dazu verpflichten würde, die nachfolgenden Verwendungen seiner Technologien zu verfolgen und sich gegen ihre Anwendung zur Automatisierung der Zielerkennung auszusprechen, und zweitens sich weigern würde, an der Beratung oder direkten Unterstützung bei der Integration der Technologie in ein autonomes Waffensystem teilzunehmen”.

Weitere prominente Unterstützer des Versprechens sind SpaceX und Tesla Motors CEO Elon Musk, Skype-Gründer Jaan Tallinn, Jeffrey Dean, Google’s Lead of Research and Machine Intelligence, und Demis Hassabis, Shane Legg, und Mustafa Suleyman, die Mitbegründer von DeepMind.

Da die KI-Technologie immer weiter voranschreitet, haben die Vereinten Nationen eine Gruppe von Regierungsexperten einberufen, die sich mit den wachsenden Bedenken von Menschenrechtsorganisationen, Lobbygruppen, Militärführern, Gesetzgebern und Tech-Experten befassen – viele, die seit Jahren ein weltweites Verbot von Killerrobotern fordern.

In den letzten Jahren haben Tech-Experten IJCAI alle Gelegenheit genutzt, um die führenden Politiker der Welt dazu zu bewegen, autonome Waffen zu verbieten, die, wie die neue Vereinbarung warnt, “zu mächtigen Instrumenten der Gewalt und Unterdrückung werden könnten, besonders wenn sie mit Überwachung- und Datensystemen verbunden sind”. Ohne ein Verbot solcher Waffen könnten sie “zu leicht ein Wettrüsten auslösen, dem es der internationalen Gemeinschaft an technischen Instrumenten und globalen Regierungssystemen mangelt”.

Artificial Intelligence Experts Warn of ‘Dystopian Future With Robots Flying Around Killing Everybody’

Kommentare sind geschlossen.