Künstliche Intelligenz (KI) und Algorithmen haben die Fähigkeit und werden eingesetzt, um die Radikalisierung voranzutreiben, die Polarisierung zu verstärken, Rassismus und politische Instabilität zu verbreiten, so ein Wissenschaftler der Lancaster University. Der internationale Sicherheitsprofessor Joe Burton glaubt, dass künstliche Intelligenz und Algorithmen nicht nur Werkzeuge sind, die von nationalen Sicherheitsbehörden eingesetzt werden, um böswillige Cyberaktivitäten zu vereiteln. Er glaubt, dass künstliche Intelligenz und Algorithmen auch Polarisierung, Radikalisierung und politische Gewalt befeuern und somit eine Bedrohung für die nationale Sicherheit selbst darstellen könnten.

Darüber hinaus spiele der Prozess der Versicherheitlichung (Betrachtung von Technologie als existenzielle Bedrohung) eine wichtige Rolle bei der Gestaltung, Nutzung und den schädlichen Folgen künstlicher Intelligenz.

Der Artikel von Professor Burton wurde kürzlich in Elseviers einflussreichem Magazin „Technology in Society“ veröffentlicht.

„Künstliche Intelligenz wird oft als Mittel zur Bekämpfung von gewalttätigem Extremismus angesehen, und das ist die andere Seite der Debatte“, sagte er.

Dieser Artikel untersucht, wie KI historisch und in ihren Darstellungen in den Medien und der Populärkultur verbrieft wurde, indem er moderne Beispiele dafür untersucht, wie KI polarisierende, radikalisierende Wirkungen hat, die zu politischer Gewalt beitragen.

Der Artikel zitiert die klassische Filmreihe „Terminator“, in der das Blutbad einer „raffinierten und bösartigen“ künstlichen Intelligenz dargestellt wird. Mehr als jeder andere Film schärfte er das öffentliche Bewusstsein für künstliche Intelligenz und die Angst, dass Maschinenbewusstsein verheerende Folgen für die Menschheit haben könnte – in diesem Fall einen Atomkrieg und den absichtlichen Versuch, eine Art auszurotten.

Professor Burton schreibt: „Das Misstrauen gegenüber Maschinen, die damit verbundenen Ängste und ihr Zusammenhang mit biologischen, nuklearen und genetischen Bedrohungen für die Menschheit haben Regierungen und nationale Sicherheitsbehörden dazu veranlasst, Einfluss auf die Entwicklung der Technologie zu nehmen, um Risiken zu reduzieren und (in einigen Fällen) ihr positives Potenzial auszuschöpfen.“

Professor Burton sagte, fortschrittliche Drohnen, wie sie im Krieg in der Ukraine eingesetzt wurden, seien nun in der Lage, völlig autonom zu sein, einschließlich Fähigkeiten wie Zielerkennung und -identifizierung. Während Länder, darunter die Vereinten Nationen, eine breite und einflussreiche Debatte führen, in der sie ein Verbot von „Killerrobotern“ und die Einbeziehung von Menschen in Entscheidungen über Leben und Tod fordern, geht die Beschleunigung und Integration bewaffneter Drohnen weiter.

In der Cybersicherheit – der Sicherheit von Computern und Computernetzwerken – wird künstliche Intelligenz häufig eingesetzt, wobei die häufigsten Bereiche Informations- und netzwerkpsychologische Kriegsführung sind.

Das Vorgehen der Putin-Regierung gegen den US-Wahlprozess im Jahr 2016 und der darauf folgende Cambridge-Analytica-Skandal zeigten das Potenzial der Kombination von KI mit Big Data, einschließlich sozialer Medien, um politische Effekte zu erzielen, die sich auf Polarisierung, die Förderung radikaler Überzeugungen und die Manipulation von Identitätsgruppen konzentrieren. Es zeigte die Macht und das Potenzial der KI, die Gesellschaft zu spalten.

Künstliche Intelligenz wurde als positives Mittel zur Verfolgung des Virus während der Pandemie angesehen, hat jedoch auch Bedenken hinsichtlich der Privatsphäre und der Menschenrechte geweckt.

Der Artikel untersucht die Technologie der künstlichen Intelligenz selbst und geht davon aus, dass es Probleme mit dem Design der künstlichen Intelligenz, den Daten, auf denen sie basiert, ihrer Verwendung sowie ihren Ergebnissen und Auswirkungen gibt. Am Ende des Artikels sendet er eine starke Botschaft an diejenigen, die sich mit der Forschung zu Cybersicherheit und internationalen Beziehungen befassen.

Professor Burton, ein Experte für Cyberkonflikte und neue Technologien und Mitglied des Programms für Sicherheits- und Schutzwissenschaften der Universität, schrieb: „Künstliche Intelligenz hat zweifellos die Fähigkeit, die Gesellschaft positiv zu verändern, birgt aber auch Risiken, die wir besser verstehen und bewältigen müssen. Verstehen Sie die spaltende Natur dieser Technologie in allen Phasen ihrer Entwicklung und Nutzung. Die Auswirkungen sind eindeutig von entscheidender Bedeutung. Wissenschaftler, die in den Bereichen Cybersicherheit und internationale Beziehungen tätig sind, haben die Möglichkeit, diese Faktoren in die neue KI-Forschungsagenda einzubeziehen und KI nicht als politisches Problem zu betrachten.“ Mit anderen Worten: Die Sicherheit von KI-Systemen und deren Einsatz in internationalen geopolitischen Auseinandersetzungen sollten nicht Vorrang vor Bedenken hinsichtlich ihrer sozialen Auswirkungen haben.

Zusammengestellte Quelle: ScitechDaily