Unabhängige News und Infos

Unabhängige News und Infos

Eine weitere „Pre-Crime“ AI-System behauptet, es kann vorhersagen, wer Desinformation teilen wird bevor es veröffentlicht wird

Eine weitere „Pre-Crime“ AI-System behauptet, es kann vorhersagen, wer Desinformation teilen wird bevor diese veröffentlicht wird

Wir haben bereits über die vielen gewichtigen Behauptungen der Vorläufer von KI-Algorithmen berichtet, die behaupten, dass ihre Technologie Verbrechen verhindern kann, bevor sie passieren. Ähnliche prädiktive KI wird zunehmend eingesetzt, um die Verbreitung von Fehlinformationen, Desinformationen und allgemeinen „Fake News“ zu stoppen, indem Trends im Verhalten und in der Sprache in den sozialen Medien analysiert werden.

Wie wir bereits berichtet haben, sind diese Systeme jedoch schon häufiger spektakulär gescheitert, wie viele Experten für künstliche Intelligenz und Mathematiker hervorgehoben haben. Ein Experte im Besonderen – Uri Gal, außerordentlicher Professor für Wirtschaftsinformatik an der Universität von Sydney, Australien – stellte fest, dass diese Systeme nach dem, was er bisher gesehen hat, „nicht besser darin sind, die Zukunft vorauszusagen als eine Kristallkugel.“

Bitte behalten Sie dies im Hinterkopf, wenn Sie sich die neuesten hochtrabenden Äußerungen der Universität Sheffield unten ansehen. Nichtsdestotrotz sollten wir uns auch darüber im Klaren sein, dass – ähnlich wie ihre Gegenstücke in der realen Welt auf der Straße vor der Kriminalität – diese Systeme höchstwahrscheinlich über die sozialen Medien ausgerollt werden (wenn sie es nicht schon sind), bis weitere Enthüllungen über ihre inhärenten Fehler, Voreingenommenheit und ihre eigene Desinformation aufgedeckt werden.

AI kann Twitter-Nutzer vorhersagen, die wahrscheinlich Desinformationen verbreiten, bevor sie es tun

Ein neuer, auf künstlicher Intelligenz basierender Algorithmus, der genau vorhersagen kann, welche Twitter-Nutzer Desinformationen verbreiten werden, bevor sie es tatsächlich tun, wurde von Forschern der University of Sheffield entwickelt.

*Forscher der University of Sheffield haben einen auf künstlicher Intelligenz basierenden Algorithmus entwickelt, der genau vorhersagen kann (79,7 Prozent), welche Twitter-Nutzer wahrscheinlich Inhalte aus unzuverlässigen Nachrichtenquellen teilen werden, bevor sie es tatsächlich tun

*Die Studie ergab, dass Twitter-Nutzer, die Desinformationen verbreiten, meist über Politik oder Religion twittern, während Nutzer, die verlässliche Nachrichtenquellen teilen, mehr über ihr Privatleben twittern

*Die Studie fand auch heraus, dass Twitter-Nutzer, die Desinformationen verbreiten, häufiger unhöfliche Sprache verwenden als Nutzer, die zuverlässige Nachrichtenquellen teilen

*Die Ergebnisse könnten Regierungen und Social-Media-Unternehmen wie Twitter und Facebook dabei helfen, das Nutzerverhalten besser zu verstehen und effektivere Modelle zur Bekämpfung der Verbreitung von Desinformationen zu entwickeln

Ein neuer, auf künstlicher Intelligenz basierender Algorithmus, der genau vorhersagen kann, welche Twitter-Nutzer Desinformationen verbreiten werden, bevor sie es tatsächlich tun, wurde von Forschern der University of Sheffield entwickelt.

Ein Forscherteam unter der Leitung von Yida Mu und Dr. Nikos Aletras vom Fachbereich Informatik der Universität hat eine Methode entwickelt, mit der sich vorhersagen lässt, ob ein Social-Media-Nutzer wahrscheinlich Inhalte aus unzuverlässigen Nachrichtenquellen teilen wird. Ihre Ergebnisse wurden in der Zeitschrift PeerJ veröffentlicht.

Die Forscher analysierten über 1 Million Tweets von etwa 6.200 Twitter-Nutzern, indem sie neue Methoden zur Verarbeitung natürlicher Sprache entwickelten – Methoden, die Computern helfen, riesige Mengen von Sprachdaten zu verarbeiten und zu verstehen. Bei den untersuchten Tweets handelte es sich um alle Tweets, die auf der Social-Media-Plattform öffentlich für jedermann einsehbar waren.

Twitter-Nutzer wurden im Rahmen der Studie in zwei Kategorien eingeteilt – diejenigen, die unzuverlässige Nachrichtenquellen geteilt haben und diejenigen, die nur Geschichten aus zuverlässigen Nachrichtenquellen teilen. Die Daten wurden verwendet, um einen Machine-Learning-Algorithmus zu trainieren, der mit einer Genauigkeit von 79,7 Prozent vorhersagen kann, ob ein Nutzer irgendwann in der Zukunft Inhalte aus unzuverlässigen Quellen weiterleiten wird.

Die Ergebnisse der Studie ergaben, dass die Twitter-Nutzer, die Geschichten aus unzuverlässigen Quellen teilten, eher über Politik oder Religion tweeteten und eine unhöfliche Sprache verwendeten. Sie posteten häufig Tweets mit Wörtern wie „liberal“, „Regierung“, „Medien“, und ihre Tweets bezogen sich häufig auf die Politik im Nahen Osten und den Islam, wobei in ihren Tweets häufig „Islam“ oder „Israel“ erwähnt wurde.

Im Gegensatz dazu fand die Studie heraus, dass Twitter-Nutzer, die Geschichten aus zuverlässigen Nachrichtenquellen teilten, oft über ihr persönliches Leben twitterten, wie z. B. über ihre Emotionen und Interaktionen mit Freunden. Diese Gruppe von Nutzern postete häufig Tweets mit Wörtern wie ‚Stimmung‘. ‚wanna‘, ‚gonna‘, ‚I’ll‘, ‚excited‘ und ‚birthday‘.

Soziale Medien sind zur primären Plattform für die Verbreitung von Desinformationen geworden, die einen enormen Einfluss auf die Gesellschaft haben und das Urteil der Menschen über das, was in der Welt um sie herum geschieht, beeinflussen können.

Dr. Nikos Aletras, Dozent für natürliche Sprachverarbeitung, University of Sheffield

Die Erkenntnisse aus der Studie könnten Social-Media-Unternehmen wie Twitter und Facebook helfen, Wege zu entwickeln, um die Verbreitung von Desinformationen im Internet zu bekämpfen. Sie könnten auch Sozialwissenschaftlern und Psychologen helfen, ihr Verständnis für ein solches Nutzerverhalten im großen Maßstab zu verbessern.

Dr. Nikos Aletras, Dozent für natürliche Sprachverarbeitung an der University of Sheffield, sagte:

Soziale Medien sind zu einem der beliebtesten Wege geworden, auf denen Menschen auf Nachrichten zugreifen. Millionen von Nutzern wenden sich täglich Plattformen wie Twitter und Facebook zu, um sich über wichtige Ereignisse zu informieren, die sowohl zu Hause als auch auf der ganzen Welt geschehen. Allerdings sind die sozialen Medien zur Hauptplattform für die Verbreitung von Desinformationen geworden, die einen großen Einfluss auf die Gesellschaft haben und die Beurteilung der Menschen über das, was in der Welt um sie herum geschieht, beeinflussen können.

Im Rahmen unserer Studie haben wir bestimmte Trends im Nutzerverhalten identifiziert, die bei diesen Bemühungen helfen könnten – zum Beispiel fanden wir heraus, dass Nutzer, die am ehesten Nachrichten aus unzuverlässigen Quellen teilen, häufig über Politik oder Religion twittern, während diejenigen, die Geschichten aus zuverlässigen Nachrichtenquellen teilen, häufig über ihr persönliches Leben tweeten.

Wir fanden auch heraus, dass die Korrelation zwischen der Verwendung unhöflicher Sprache und der Verbreitung unzuverlässiger Inhalte auf eine hohe politische Online-Feindseligkeit zurückgeführt werden kann.

Yida Mu, Doktorandin an der University of Sheffield, sagte:

Die Untersuchung und Analyse des Verhaltens von Nutzern, die Inhalte aus unzuverlässigen Nachrichtenquellen teilen, kann Social-Media-Plattformen dabei helfen, die Verbreitung von Fake News auf der Nutzerebene zu verhindern und so bestehende Fact-Checking-Methoden zu ergänzen, die auf der Ebene der Posts oder der Nachrichtenquelle arbeiten.

Die Studie gibt es hier