L’annonce de Zuckerberg sur l’IA soulève des signaux d’alarme en matière de confidentialité et de toxicité

0
145

L’annonce du PDG de Meta, Mark Zuckerberg, sur l’IA a soulevé des inquiétudes majeures, après avoir déclaré que l’entreprise disposait de plus de données utilisateur que celles utilisées pour former ChatGPT – et qu’elle les utiliserait bientôt pour former ses propres systèmes d’IA.

Le projet de l’entreprise d’utiliser les publications et commentaires de Facebook et Instagram pour former un chatbot concurrent soulève des inquiétudes en matière de confidentialité et de toxicité…

Zuckerberg a annoncé le plan de l’entreprise après avoir publié le dernier rapport sur les résultats de l’entreprise, comme Bloomberg rapports.

Pour beaucoup de gens, Facebook est Internet, et le nombre de ses utilisateurs ne cesse de croître, selon les derniers résultats financiers de Meta Platforms Inc. Mais Mark Zuckerberg ne se contente pas de célébrer cette croissance continue. Il veut en profiter en utilisant les données de Facebook et Instagram pour créer une intelligence artificielle puissante et polyvalente (…)

(Zuckerberg a déclaré) « Le prochain élément clé de notre stratégie consiste à tirer les leçons des données uniques et des boucles de rétroaction dans nos produits… Sur Facebook et Instagram, il existe des centaines de milliards d’images partagées publiquement et des dizaines de milliards de vidéos publiques, ce que nous estimons être est supérieur à l’ensemble de données Common Crawl et les gens partagent également un grand nombre de messages texte publics dans les commentaires sur nos services.

Common Crawl fait référence à une énorme archive de 250 milliards de pages Web, représentant la majeure partie du texte utilisé pour entraîner ChatGPT. En faisant appel à un ensemble de données encore plus vaste, Meta pourrait être en mesure de créer un chatbot plus intelligent.

Comme Bloomberg Remarques, ce n’est pas seulement le volume de données qui pourrait donner un avantage à Meta – c’est le fait qu’une grande partie d’entre elles sont interactives.

La pile de données sur laquelle il s’appuie est particulièrement précieuse car une grande partie provient de fils de commentaires. Tout texte représentant un dialogue humain est essentiel à la formation des soi-disant agents conversationnels. C’est pourquoi OpenAI a largement exploité le forum Internet Reddit Inc. pour créer son propre chatbot populaire.

Mais l’article souligne également les deux grands signaux d’alarme ici. Premièrement, Meta entraînerait effectivement son IA sur ce qui pourrait être des publications assez personnelles et des conversations entre amis dans les commentaires Facebook. Cela soulève des alarmes majeures en matière de confidentialité.

Deuxièmement, tous ceux qui ont déjà lu la section commentaires n’importe où sur Internet sait que le pourcentage de contenus toxiques est élevé. Tandis que des utilisateurs réfléchis débattent des questions, les commentateurs ne manquent pas d’avoir recours à des attaques personnelles et à des insultes grossières – et une proportion inquiétante d’entre elles sont racistes et sexistes.

C’est quelque chose que tout système de formation de chatbot doit filtrer – et Apple est probablement plus prudent que quiconque dans son propre travail de développement de chatbot, contribuant ainsi à une relance très tardive de Siri – mais la situation ici pourrait être particulièrement mauvaise.

Certains contenus de Facebook signalés comme toxiques ne sont plus examinés par un humain et restent sur le site. Pire encore : lorsque Zuckerberg a déclaré que les données de Meta étaient plus volumineuses que celles de Common Crawl, il était probablement en train de les regrouper dans les archives historiques de l’entreprise qui incluraient tout le contenu politique hyperbolique et les fausses nouvelles qui se trouvaient sur le site avant que Zuckerberg ne prenne la peine de le nettoyer.

Et c’est cette entreprise qui, il y a quelques jours encore, a déclaré que une fausse vidéo du président Biden devrait être autorisé à rester sur la plate-forme car elle a été éditée par un humain et non par un système d’IA, ses normes ne sont donc pas vraiment élevées, même aujourd’hui.

photo par Mariia Shalabaïeva sur Unsplash

FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.

Marion Legrand
Marion a été éditeur en chef pour SOON. elle a précédemment créé des stratégies de marketing de contenu et des textes convaincants pour diverses entreprises de technologie et de commerce électronique. Elle a cofondé deux jeux de rôle fantastiques en direct qui ont offert des expériences immersives et interactives pendant près de 10 ans.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici