A la Une Surveillance

L’identification du discours haineux, un cheval de Troie pour la prise de contrôle de l’humanité par l’IA

ÉCRIT PAR LE DR MICHAEL SALLA, LE 8 MARS 2018.

Une vidéo du 8 février de l’Anti-Defamation League (ADL) fait la promotion d’un nouvel algorithme basé sur l’intelligence artificielle (IA) qu’elle appelle le « Online Hate Index » qui vise à identifier les propos haineux.

L’ADL croit que l’algorithme de l’IA peut être utilisé par des plateformes de médias sociaux comme Facebook, YouTube, Twitter pour identifier et supprimer rapidement les propos haineux.

Dans la vidéo, Brittan Heller, le directeur de l’ADL Center for Technology & Society dit que l’objectif de l’indice est de :

Aider les plateformes technologiques à mieux comprendre la quantité croissante de haine sur les médias sociaux et à utiliser cette information pour s’attaquer au problème. En combinant l’intelligence artificielle et l’apprentissage automatique et les sciences sociales, l’Index de la haine en ligne permettra de découvrir et d’identifier les tendances et les modèles de la propagande haineuse sur différentes plates-formes.

Dans sa « Phase I Innovation Brief » publiée en janvier 2018 sur son site web, l’ADL explique en outre comment “machine Learning”, une forme d’intelligence artificielle basée sur des algorithmes, peut être utilisée pour identifier et supprimer les propos haineux des plates-formes de médias sociaux :

Le Online Hate Index (OHI), une initiative conjointe du Center for Technology and Society de l’ADL et du D-Lab de l’UC Berkeley, est conçu pour transformer la compréhension humaine de la propagande haineuse par l’apprentissage automatique en un outil évolutif qui peut être déployé sur le contenu Internet pour découvrir la portée et la diffusion de la propagande haineuse en ligne.

Grâce à un processus d’apprentissage automatique en constante évolution, fondé sur un protocole élaboré par une équipe de codeurs humains quant à ce qui constitue ou non de la propagande haineuse, cet outil nous permettra de découvrir et d’identifier les tendances et les modèles de la propagande haineuse sur différentes plateformes en ligne, ce qui nous permettra de réclamer les changements nécessaires pour faire en sorte que les communautés en ligne soient des espaces sûrs et inclusifs.

Le Online Hate Index de l’ADL est décrit comme  » une analyse basée sur les sentiments qui s’appuie sur l’apprentissage machine « . Le mémoire de l’ADL poursuit en ces termes :

Toutes les décisions qui ont été prises à chaque étape de la création de l’OHI ont été prises dans le but de construire un modèle d’apprentissage automatique qui peut être utilisé pour identifier et nous aider à comprendre le discours haineux en ligne.

Ce que l’ADL et d’autres promoteurs d’algorithmes basés sur l’IA ne parviennent pas à saisir, c’est le potentiel de l’IA à évoluer, grâce à sa capacité programmée d‘ »apprentissage machine », vers le genre d’intelligence sensible interconnectée redoutable que l’on retrouve dans des films tels que Terminator et Battlestar Galactica.

Il est bien connu que des scientifiques/inventeurs tels que Stephen Hawkins et Elon Musk ont fortement mis en garde contre la menace à long terme que représente l’IA.

Ils croient, comme d’autres, que l’IA représente une menace existentielle pour l’humanité et qu’elle doit être étroitement contrôlée et surveillée.

Dans un discours de 2014, Musk a dit :

Je pense que nous devrions faire très attention à l’intelligence artificielle. Si je devais deviner quelle est notre plus grande menace existentielle, c’est probablement cela. Nous devons donc être très prudents avec l’intelligence artificielle……

Je suis de plus en plus enclin à penser qu’il devrait y avoir une certaine surveillance réglementaire, peut-être au niveau national et international, juste pour s’assurer que nous ne faisons pas quelque chose de très stupide…

Avec l’intelligence artificielle, nous invoquons le démon. Vous savez ces histoires où il y a le gars avec le pentagramme, et l’eau bénite, et… il est sûr de pouvoir contrôler le démon ? Ça ne marche pas.

Le point de vue de Musk a été repris par Stephen Hawking qui a mis en garde contre le danger de l’IA dans une interview accordée à la BBC en décembre 2014 :

Le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine…..

Elle décollerait tout seule et se redessinerait à un rythme de plus en plus rapide…. Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient remplacés.

De même, Corey Goode, un initié présumé révélant l’existence de multiples programmes spatiaux secrets, affirme que l’IA est déjà une menace dans les opérations spatiales profondes.

Lorsqu’il est apparu pour la première fois au début de l’année 2015, Goode a porté une grande attention à la menace de la grippe aviaire et continue d’avertir aujourd’hui.

Il dit que ces programmes, ainsi que les civilisations extraterrestres, prennent des mesures de sécurité strictes pour identifier et supprimer tout type de signature d’IA :

Il y a quelques groupes ET « AI » (TOUS malveillants pour l’humanité, de notre point de vue) auxquels le ou les SSP (il y a plusieurs programmes spatiaux secrets) ont affaire depuis des décennies.

Si un « Asset » est « Scanné » et a une « Bio Neuro AI Signature », « AI Nano Tech » ou « Overlapping AI related EMG type Brian Wave Signature » (ou tout autre signe d’exposition à l’IA), ces personnes sont immédiatement placées en isolement et ne sont pas autorisées à se rapprocher de l’ère actuelle SSP(s) Technologie (qui est « Mostly » Bio-Neurological and Consciousness Interactive) jusqu’à ce qu’elles aient été « effacées ».

A première vue, l’idée est de surveiller le discours et de réglementer les personnes qui encouragent la peur, la haine ou la violence contre d’autres personnes, que ce soit pour des raisons sociales, religieuses ou économiques.

Après tout, nous voulons tous vivre dans un monde pacifique et tolérant, ce qui inclut le cyberespace, alors pourquoi ne pas exclure les individus et les groupes intolérants et haineux de nos plateformes de médias sociaux ?

Le gros problème ici, bien sûr, c’est qu’il y a un réel danger que les médias sociaux puissent être utilisés subrepticement pour exclure les points de vue politiques dissidents sous prétexte de réglementer le discours de haine.

On le voit déjà sur Youtube avec une armée de 10 000 volontaires de groupes comme le Southern Poverty Law Center.

De nombreuses chaînes populaires sur YouTube sont de plus en plus ciblées par des grèves et des renvois pour des comportements qualifiés d’intimidation ou de discours haineux.

Pourtant, cette répression sur YouTube semble être une campagne politique habilement déguisée pour éliminer les voix alternatives qui remettent en question la narration officielle des médias sur un grand nombre de questions sociales, plutôt que de s’attaquer aux discours haineux.

J’ai écrit sur ce problème ici.

Toutefois, ce que propose ADL va bien au-delà de ce que YouTube fait actuellement.

L’ADL fait ouvertement la promotion d’un système de censure où ce ne sont pas les humains qui surveilleront et supprimeront les propos haineux, mais un algorithme d’IA.

Quel pourrait en être le résultat si l’on permettait que cela se produise compte tenu des avertissements d’IA posés par Hawking, Musk et Goode ?

Il n’est pas nécessaire d’être un Einstein pour comprendre que si les plateformes de médias sociaux permettaient aux algorithmes d’IA de surveiller et de censurer le contenu, les avertissements concernant une future menace d’IA seraient eux-mêmes considérés comme une forme de discours haineux.

Après tout, si les sociétés peuvent être reconnues comme ayant les mêmes droits que les individus selon la tristement célèbre décision Citizens United rendue par la Cour suprême en 2010, la sensibilité à l’intelligence artificielle ne sera-t-elle pas éventuellement reconnue comme ayant des droits humains similaires aux États-Unis ?

Nous pourrions très facilement nous retrouver dans un avenir dystopique où différentes formes d’IA sont utilisées pour surveiller et réglementer le comportement humain de façon flagrante, et tout humain protestant ou avertissant de ce que fait le système d’IA serait censuré pour les propos haineux.

Compte tenu de la menace existentielle que représente l’IA, si nous acceptons ce que Hawking, Musk et Goode nous disent, sans parler de l’inopportunité de censurer d’autres perspectives en premier lieu, alors la liberté d’expression doit être protégée sur les médias sociaux à tout prix.

Aux États-Unis, cela ne devrait pas représenter un trop grand défi étant donné le droit constitutionnel du Premier Amendement à la liberté d’expression et les recours légaux disponibles dans le système judiciaire fédéral.

Les personnes qui ont menacé de poursuites judiciaires contre YouTube en s’attaquant à leurs chaînes semblent avoir le plus réussi à rétablir leurs chaînes. YouTube s’est excusé auprès de ces utilisateurs pour le comportement trop zélé de sa nouvelle armée de 10 000 modérateurs. e

Cependant, les États-Unis sont une île dans un vaste océan où d’autres pays punissent activement les individus et les groupes qui tiennent des propos haineux.

C’est là que l’avenir semble de mauvais augure, compte tenu de la tentation des organismes de réglementation nationaux de punir éventuellement les plateformes de médias sociaux qui ne réglementent pas le discours haineux. Cela obligerait Facebook, YouTube, Twitter et d’autres plateformes à adopter les algorithmes basés sur l’intelligence artificielle recommandés par l’ADL ou d’autres organisations pour une utilisation généralisée.

Cela risque d’aboutir à une situation où de grandes nations comme la Chine, ou des entités supranationales comme l’Union européenne, pourraient adopter des algorithmes d’IA pour surveiller les discours de haine et les discours de haine réguliers.

La Chine surveille déjà de près et supprime la pensée politique dissidente des plates-formes médiatiques par le biais de pare-feu, et pourrait bien envisager d’incorporer des algorithmes d’IA pour le faire plus efficacement.

Alors que les régulateurs nationaux à travers le monde peuvent être tentés pour différentes raisons d’adopter la proposition de l’ADL pour les algorithmes d’IA pour identifier et supprimer les discours de haine, nous devons fermement garder à l’esprit que cela créerait un cheval de Troie pour un éventuel contrôle de l’IA de l’humanité.

Malgré les véritables problèmes posés par les discours de haine, les régulateurs nationaux doivent s’assurer que les plateformes de médias sociaux ne sont jamais régulées par des algorithmes d’IA, étant donné que la sécurité mondiale risque d’être minée et que l’humanité est réellement mise en péril par une prise de contrôle de l’IA.

Michael E. Salla, Ph.D.

https://www.exopolitics.org/hate-speech-initiative-a-trojan-horse-for-ai-takeover-of-humanity/

Traduit avec https://www.deepl.com/translator

Vous pouvez partager ce texte à condition d’en respecter l’intégralité et de citer la source et le site: http://www.elishean.fr/

Copyright les Hathor © Elishean/2009-2018/ Elishean mag



Print Friendly, PDF & Email
Articles similaires

ISOLATION + CHAUFFAGE pour 1 euro. Nouveau dispositif 2020

Vérifiez votre éligibilité !

Suivez nous sur les réseaux sociaux

Votre aide est importante…

Vous appréciez mon travail et vous voulez soutenir ce site?

Vous pouvez contribuer à la continuité de ce site en faisant un don sécurisé sur PayPal.

Même une somme minime sera la bienvenue, car je gère seule tous les sites du réseau Elishean/ les Hathor. Avec toute ma gratitude, Miléna

 

Articles Phares