Sam Altman craint l'effet de l'IA sur les élections
Une fois de plus, Sam Altman, PDG d'OpenAI – dont le lancement en novembre du populaire chatbot ChatGPT a sans doute lancé l'adoption généralisée par le public de la technologie d'IA générative – s'inquiète des impacts de la technologie qu'il travaille activement à développer.
Cette fois, il s'inquiète des effets potentiellement destructeurs que les outils d'IA générative pourraient avoir sur le processus démocratique, arguant que les médias synthétiques de haute qualité et hyper-ciblés pourraient constituer une force puissante et potentiellement dommageable lors des prochaines élections - une crainte qui a déjà été exprimée. soulevées par un certain nombre d’experts et de leaders de l’industrie.
"Je suis nerveux quant à l'impact que l'IA va avoir sur les élections futures (au moins jusqu'à ce que tout le monde s'y habitue)", a écrit Altman dans un article publié jeudi sur X, anciennement Twitter, "une persuasion personnalisée 1:1, combinée à un niveau élevé de persuasion". -des médias générés par la qualité, vont être une force puissante."
C'est une préoccupation légitime. Les médias générés par l'IA ont déjà été utilisés dans plusieurs publicités de campagne américaine liées aux élections de 2024, notamment par le Comité national républicain et la campagne du candidat à la présidentielle Ron Desantis, qui a utilisé des outils d'IA pour générer de fausses images d'une Chine imaginaire. -L'invasion américaine et le président Joe Biden embrassant respectivement Anthony Fauci, ancienne figure de proue de la réponse américaine à la pandémie.
La désinformation générée par l’IA s’est également déjà révélée assez convaincante. Bien qu’elle ait été rapidement démystifiée comme étant une fausse nouvelle, une photo probablement générée par l’IA d’un attentat à la bombe près du Pentagone, par exemple, a provoqué une baisse brève mais notable du marché boursier après être devenue virale sur Twitter en mai.
Et en juin dernier, des images synthétiques de vêtements d'enfants démoniaques chez Target ont plongé les groupes d'extrême droite sur les réseaux sociaux dans une spirale de guerre culturelle – un incident qui semble répondre à l'avertissement d'Altman concernant la persuasion personnalisée. Les gens ont tendance à rechercher des informations qui confirment ce qu’ils croient déjà ; avec la bonne invite et la bonne plateforme, il pourrait être relativement facile d’attirer certains groupes idéologiques dans des pièges synthétiques de désinformation.
Bien sûr, étant donné qu’Altman profite des outils qu’il dénonce régulièrement comme étant dangereux, il est parfois difficile de le prendre au sérieux lorsqu’il parle des risques liés à l’IA, même s’il a objectivement raison de s’inquiéter. Mais comme il l'a lui-même dit dans le passé, il vaut probablement mieux qu'il nourrisse une certaine crainte à l'égard de ses créations, plutôt que d'ignorer carrément les risques.
"Bien que ce ne soit pas une solution complète, sensibiliser à ce problème vaut mieux que rien", a-t-il écrit dans ce fil de discussion de jeudi sur X. "Nous sommes curieux d'entendre des idées et aurons bientôt des événements pour en discuter davantage."
En savoir plus sur Sam Altman :Le PDG d'OpenAI espère que les dirigeants mondiaux nous sauveront de l'IA qu'il construit
Partagez cet article
En savoir plus sur Sam Altman :