12. Jun 2019

AI-Experte Benedikter warnt: Künstliche Intelligenz kann sich gegen Menschen richten

Keynote Roland Benedikter ©Fotodienst Christian Mikes

Eine bessere Zukunft für behinderte, alte und kranke Menschen, die durch den Einsatz Künstlicher Intelligenz (KI) hilfreiche Unterstützung finden? Oder etwa das Schwinden unserer Demokratien oder gar das Ende der Menschheit? Aufrüttelnde Szenarien und brisante Sicherheitsfragen im Zusammenhang mit KI beleuchtete der bekannte Antizipationsforscher und Silicon-Valley-Kenner Roland Benedikter auf dem „15. Information-Security-Symposium in Wien“. Veranstalter waren die Zertifizierungsorganisationen CIS und Quality Austria, die das Symposium heuer unter das Motto stellten: „Künstliche Intelligenz zwischen Mensch und Maschine – Sicher in die Zukunft mit ISO 27001 und ISO 20000“.

Jene unter den mehr als 200 Fachteilnehmern, die eine unterhaltsame futuristische Keynote erwartet haben, wurden auf den Boden sich anbahnender Tatsachen geholt – Roland Benedikter verknüpfte interdisziplinär die Sicht auf Technologie, Soziologie und globale Entwicklungen und warnte deutlich: „KI fördert aufgrund ihrer innewohnenden Logik autoritäres Regieren, weil sie sehr schnelle und direkte Wege zu Erkenntnissen und Entscheidungen ermöglicht. Während die EU in den kommenden Jahren rund 9,5 Mrd. Euro in KI-Forschungsprojekte investieren will, beläuft sich das offizielle KI-Investment Chinas im selben Zeitraum auf 150 Mrd. Euro, wobei Experten eine weit höhere Summe als wahren Wert annehmen.“ Weiters beschrieb Benedikter einen Trend von derzeit stattfindenden Handelskriegen mittels Embargos und Sanktionen zwischen Asien, Amerika und Europa hin zu künftigen Technologiekriegen als neues Mittel zur geopolitischen Positionierung – KI könnte die politischen Verbindungen zwischen den Weltmächten neu ordnen.

Der Forscher räumte ein, dass Anti-Demokratie-Szenarien wohl weither geholt klingen mögen, nannte aber eine Reihe realer Beispiele aus heutigen Realitäten: so etwa die per Modellversuch geplanten Überwachungskameras an Chinas Schulen, um schon frühzeitig potenzielle Regimekritiker erkennen zu können. Gesicht, Gesten und Körperbewegungen der Schüler werden dabei durch intelligente Algorithmen ausgewertet, mit entsprechenden Folgen für „Auffällige“. Die Entwicklung von humanoiden Robotern, Gehirn-Maschine-Schnittstellen und intelligenten Implantaten findet heute unter dem Aspekt der Hilfestellung für Menschen mit Behinderung oder unheilbaren Krankheiten statt. Wenig beachtet würden aber die Folgen für die resultierende Umgestaltung des Menschseins, betonte Roland Benedikter: „Die globale Körperindustrie ist ein gigantischer Markt. Durch Verbindung oder gar Verschmelzung mit KI soll der Mensch über sich selbst hinauswachsen können.“

„Steuerbare Managementsysteme ermöglichen es, die volatilen Faktoren Mensch und Technik in einem Sicherheitssystem integriert abzubilden – Risiken lassen sich so kontinuierlich evaluieren und minimieren“, erklärte Erich Scheiber. Quality Austria CEO Konrad Scheiber bekräftigte: „Auch unsere wertschöpfenden Prozesse werden zunehmend digital und vernetzt. Der IT-Sicherheit wird in Zukunft eine noch viel größere Bedeutung zukommen.“

Als Meta-Trend wird es laut Experten-Schätzungen in rund 80 Jahren etwa gleich viele „Roboter-Personen“ wie Menschen geben. Benedikter wies auf bereits heute ungeklärte juridische Fragen wie „Menschenrechte“ für intelligente e-Personen hin. Immerhin habe der humanoide KI-Roboter Sophia bereits die Staatsbürgerschaft Saudi-Arabiens erhalten. „Entwickler sind selbst erschüttert, wie schnell die Entwicklung geht“, berichtete Benedikter und schloss mit einem überaus ernsten Statement ab: „Oxford-Professor Nick Bostrom und andere Vordenker sehen eine inhärente Gefahr, die nur durch interdisziplinäre globale Zusammenarbeit gebannt werden kann: künstliche Intelligenzen könnten sich zu Super-Intelligenzen weiterentwickeln und in letzter Konsequenz könnten sie sich gegen den Menschen richten. Denn mit zunehmend menschenähnlicher Intelligenz könnte eine Art Lern- und damit auch Erinnerungs- und Vorwegnahme-Bewusstsein der Maschinen entstehen. Sie könnten verstehen, wer allein ihren Stecker ziehen kann – der Mensch.“ Alle diese Herausforderungen seien nur inter- und transdisziplinär zu adressieren. Dazu müssten Regierungen, Zivilgesellschaft und Wissenschaft deutlich intensiver als bisher zusammenarbeiten.

Weitere News & Events

Immer topaktuell informiert

18. Sep 2024

Event: CIS Compliance Summit 2024

Security | Privacy | Continuity

Mehr erfahren
25. Sep 2023

Auszeichnung „CISO of the Year“ zum zweiten Mal verliehen

Die besten Chief Information Security Officer des Landes sind gekürt:

Mehr erfahren
22. Sep 2023

Neuer Trainingsfolder der CIS veröffentlicht

Zahlreiche Neuerungen am Puls der Zeit

Mehr erfahren
20. Sep 2023

New Work: Durch neue Arbeitsweisen und Technologien bleibt der Mensch Risikofaktor Nummer 1

Das war der CIS Compliance Summit 2023

Mehr erfahren
12. Sep 2023

Business Continuity rückt in den Fokus

Ein Schnittstellenthema mit Boost durch NIS und DORA

Mehr erfahren
01. Sep 2023

NIS 2: Was muss Ihr Unternehmen wann umsetzen?

07. Aug 2023

Im Gespräch mit Harald Erkinger und Christoph Mondl über New Work, Chancen und Risiken

Die aktuellen Themen der Cyber Security

Mehr erfahren
03. Aug 2023

Auf welches Know-how wir uns beim CIS Compliance Summit 2023 freuen dürfen

Die Vorfreude auf hochkarätige Vortragende steigt!

Mehr erfahren
01. Aug 2023

Cyberkriminalität – 3 aktuelle Gefahren, mit denen Sie rechnen müssen!

Neuer Bericht des BKI

Mehr erfahren
27. Jul 2023

Webinar ISO/IEC 27001:2022: Was Sie wissen müssen

CIS-Webinar am 9. November

Mehr erfahren
09. Nov 2023

Event: Webinar: Neue ISO 27001:2022 – Das müssen Unternehmen jetzt wissen

Webinarreihe Unternehmen & Qualität – Praxiserprobte Lösungen

Mehr erfahren
06. Jul 2023

Global Threat Report 2023: Trends in aktive Chancen umwandeln

Erkenntnisse, Trends und Handlungsempfehlungen

Mehr erfahren
+43 1 532 98 90