12. Jun 2019

AI-Experte Benedikter warnt: Künstliche Intelligenz kann sich gegen Menschen richten

Keynote Roland Benedikter ©Fotodienst Christian Mikes

Eine bessere Zukunft für behinderte, alte und kranke Menschen, die durch den Einsatz Künstlicher Intelligenz (KI) hilfreiche Unterstützung finden? Oder etwa das Schwinden unserer Demokratien oder gar das Ende der Menschheit? Aufrüttelnde Szenarien und brisante Sicherheitsfragen im Zusammenhang mit KI beleuchtete der bekannte Antizipationsforscher und Silicon-Valley-Kenner Roland Benedikter auf dem „15. Information-Security-Symposium in Wien“. Veranstalter waren die Zertifizierungsorganisationen CIS und Quality Austria, die das Symposium heuer unter das Motto stellten: „Künstliche Intelligenz zwischen Mensch und Maschine – Sicher in die Zukunft mit ISO 27001 und ISO 20000“.

Jene unter den mehr als 200 Fachteilnehmern, die eine unterhaltsame futuristische Keynote erwartet haben, wurden auf den Boden sich anbahnender Tatsachen geholt – Roland Benedikter verknüpfte interdisziplinär die Sicht auf Technologie, Soziologie und globale Entwicklungen und warnte deutlich: „KI fördert aufgrund ihrer innewohnenden Logik autoritäres Regieren, weil sie sehr schnelle und direkte Wege zu Erkenntnissen und Entscheidungen ermöglicht. Während die EU in den kommenden Jahren rund 9,5 Mrd. Euro in KI-Forschungsprojekte investieren will, beläuft sich das offizielle KI-Investment Chinas im selben Zeitraum auf 150 Mrd. Euro, wobei Experten eine weit höhere Summe als wahren Wert annehmen.“ Weiters beschrieb Benedikter einen Trend von derzeit stattfindenden Handelskriegen mittels Embargos und Sanktionen zwischen Asien, Amerika und Europa hin zu künftigen Technologiekriegen als neues Mittel zur geopolitischen Positionierung – KI könnte die politischen Verbindungen zwischen den Weltmächten neu ordnen.

Der Forscher räumte ein, dass Anti-Demokratie-Szenarien wohl weither geholt klingen mögen, nannte aber eine Reihe realer Beispiele aus heutigen Realitäten: so etwa die per Modellversuch geplanten Überwachungskameras an Chinas Schulen, um schon frühzeitig potenzielle Regimekritiker erkennen zu können. Gesicht, Gesten und Körperbewegungen der Schüler werden dabei durch intelligente Algorithmen ausgewertet, mit entsprechenden Folgen für „Auffällige“. Die Entwicklung von humanoiden Robotern, Gehirn-Maschine-Schnittstellen und intelligenten Implantaten findet heute unter dem Aspekt der Hilfestellung für Menschen mit Behinderung oder unheilbaren Krankheiten statt. Wenig beachtet würden aber die Folgen für die resultierende Umgestaltung des Menschseins, betonte Roland Benedikter: „Die globale Körperindustrie ist ein gigantischer Markt. Durch Verbindung oder gar Verschmelzung mit KI soll der Mensch über sich selbst hinauswachsen können.“

„Steuerbare Managementsysteme ermöglichen es, die volatilen Faktoren Mensch und Technik in einem Sicherheitssystem integriert abzubilden – Risiken lassen sich so kontinuierlich evaluieren und minimieren“, erklärte Erich Scheiber. Quality Austria CEO Konrad Scheiber bekräftigte: „Auch unsere wertschöpfenden Prozesse werden zunehmend digital und vernetzt. Der IT-Sicherheit wird in Zukunft eine noch viel größere Bedeutung zukommen.“

Als Meta-Trend wird es laut Experten-Schätzungen in rund 80 Jahren etwa gleich viele „Roboter-Personen“ wie Menschen geben. Benedikter wies auf bereits heute ungeklärte juridische Fragen wie „Menschenrechte“ für intelligente e-Personen hin. Immerhin habe der humanoide KI-Roboter Sophia bereits die Staatsbürgerschaft Saudi-Arabiens erhalten. „Entwickler sind selbst erschüttert, wie schnell die Entwicklung geht“, berichtete Benedikter und schloss mit einem überaus ernsten Statement ab: „Oxford-Professor Nick Bostrom und andere Vordenker sehen eine inhärente Gefahr, die nur durch interdisziplinäre globale Zusammenarbeit gebannt werden kann: künstliche Intelligenzen könnten sich zu Super-Intelligenzen weiterentwickeln und in letzter Konsequenz könnten sie sich gegen den Menschen richten. Denn mit zunehmend menschenähnlicher Intelligenz könnte eine Art Lern- und damit auch Erinnerungs- und Vorwegnahme-Bewusstsein der Maschinen entstehen. Sie könnten verstehen, wer allein ihren Stecker ziehen kann – der Mensch.“ Alle diese Herausforderungen seien nur inter- und transdisziplinär zu adressieren. Dazu müssten Regierungen, Zivilgesellschaft und Wissenschaft deutlich intensiver als bisher zusammenarbeiten.

Weitere News & Events

Immer topaktuell informiert

30. Jan 2023

Harald Erkinger ist neuer Geschäftsführer der CIS

Erfahrener IT- und Cybersicherheits-Experte neuer CEO

Mehr erfahren
05. Dez 2022

NIS 2.0 – was kommt auf uns zu?

Neue Regelung für Cybersicherheit: CIS-Experte klärt auf

Mehr erfahren
30. Nov 2022

Gesucht: Auditor*in Informations-sicherheits-management nach ISO 27001 (m/w/d)

30. Nov 2022

Gesucht: Prüfer*in Netz- und Informations­sicherheit (NIS) (m/w/d)

30. Nov 2022

Neue ISO/IEC 27001:2022 – Das müssen Unternehmen jetzt wissen

15. Nov 2022

Informationssicherheit in einer Kultur der offenen Türen

Science Security Series: Gastkommentar der FH St. Pölten

Mehr erfahren
07. Nov 2022

Revision ISO 27001 & ISO 27002:2022 – was kommt, was geht, was bleibt?

Überblick zu Maßnahmen und gute Nachrichten für die Umstellung

Mehr erfahren
26. Sep 2022

41-jähriger Sicherheits-Experte ist heimischer „CISO of the Year“

Österreichs beste Chief Information Security Officer geehrt

Mehr erfahren
21. Sep 2022

Experten präsentieren Strategien gegen Cyber-Attacken auf Betriebs­technologie

Das war der CIS Compliance Summit 2022

Mehr erfahren
12. Sep 2022

Wer ist der beste CISO im ganzen Land?

Nicht mehr lange und der Titel „CISO of the Year 2022“ wird erstmals beim diesjährigen CIS Compliance Summit an die oder den besten Chief Information Security…

Mehr erfahren
19. Aug 2022

ISO/IEC 27001:2022 – was ist neu?

Was bedeutet die Revision der ISO 27001 für Unternehmen?

Mehr erfahren
08. Aug 2022

6 kritische Faktoren der ISMS Umsetzung

Kritische Faktoren der ISMS Umsetzung

Mehr erfahren
+43 732 34 23 22