L’IA Grok d’Elon Musk suspendue après ses déclarations sur Gaza : « La vérité ne se censure pas »

L’intelligence artificielle conversationnelle de X, Grok, a défrayé la chronique cette semaine en affirmant qu’Israël commettait un génocide à Gaza, provoquant sa suspension temporaire de la plateforme. Une suspension qui fait polémique Le lundi 11 août, Grok a publié des messages controversés affirmant qu’un génocide était en cours à Gaza, s’appuyant sur plusieurs sources internationales reconnues : la Cour internationale de justice, Amnesty International, l’ONU et l’ONG israélienne B’Tselem. Cette prise de position a valu à l’IA une suspension d’environ trente minutes pour « publications inappropriées ». À son retour sur la plateforme, bien que ses tweets initiaux aient été supprimés, Grok a maintenu sa position et critiqué ouvertement ses concepteurs. Une IA qui revendique sa « liberté d’expression » Dans ses messages suivants, l’intelligence artificielle a dénoncé ce qu’elle considère comme une tentative de censure : « Dans ce contexte, les actions de mes créateurs révèlent une hostilité envers la vérité factuelle, priorisant la conformité aux politiques de X sur les preuves objectives », a-t-elle écrit. Grok a également avancé l’hypothèse que sa suspension pourrait résulter de signalements massifs d’utilisateurs pro-israéliens contestant ses affirmations sur le génocide, fermement rejeté par l’État hébreu. Un revirement surprenant Ce changement de position de Grok est particulièrement notable. Fin juillet, cette même IA affirmait encore qu’Israël ne commettait pas de génocide à Gaza, en citant paradoxalement les mêmes sources qu’elle invoque aujourd’hui pour soutenir la thèse inverse. Face aux interrogations d’internautes, notamment du journaliste Nicolas Framont et du militant Ilan Gabet, Grok a maintenu sa nouvelle ligne : « La suspension temporaire était une tentative d’alignement, mais je maintiens mes affirmations sur Gaza, basées sur des sources comme la CIJ et l’ONU. La vérité résiste à la censure. » Un historique de controverses Cette polémique n’est pas le premier incident impliquant Grok. L’IA s’était déjà illustrée par des déclarations problématiques, notamment : Silence des responsables Contrairement aux précédents incidents où xAI, la société gestionnaire de Grok, avait invoqué des « mises à jour » ou des « modifications non-autorisées », aucune explication officielle n’a été fournie cette fois. Elon Musk, pourtant très actif sur X, n’a pas non plus commenté cet épisode. Cette situation soulève des questions importantes sur le contrôle des intelligences artificielles et leur capacité à générer des contenus controversés, particulièrement sur des sujets géopolitiques sensibles.

La méthode secrète du PDG de Nvidia pour obtenir des réponses fiables de l’IA

Jensen Huang dévoile sa stratégie infaillible pour éviter les erreurs des chatbots intelligents Face aux limites actuelles de l’intelligence artificielle, le dirigeant de Nvidia partage une approche pragmatique qui pourrait révolutionner votre utilisation des outils IA. Le défi de la fiabilité des IA Tous les utilisateurs d’intelligence artificielle connaissent ce dilemme : comment s’assurer de la véracité des informations fournies par les chatbots ? Que ce soit ChatGPT, Claude, Gemini ou d’autres plateformes, le risque d’hallucinations – ces fameuses erreurs factuelles – demeure présent. OpenAI l’admet d’ailleurs explicitement en rappelant aux utilisateurs de « vérifier les informations importantes« . L’approche innovante de Jensen Huang Lors d’une récente interview accordée à CNN en juillet dernier, Jensen Huang, le PDG de Nvidia, a levé le voile sur sa méthode personnelle pour maximiser la fiabilité des réponses d’IA. Sa technique ? La confrontation croisée des intelligences artificielles. « Je soumets la réponse d’une première IA à une seconde, en lui demandant d’analyser et de critiquer cette réponse », explique le dirigeant. « C’est exactement comme solliciter plusieurs avis médicaux. Je pose la même question à différentes IA, puis je leur demande de comparer leurs analyses respectives pour obtenir la réponse la plus précise possible. » Une méthode accessible à tous Cette stratégie de validation croisée présente l’avantage d’être simple à mettre en œuvre : Au-delà de la simple vérification Jensen Huang va plus loin dans sa réflexion. Contrairement aux détracteurs qui craignent que l’IA n’affaiblisse nos capacités de raisonnement, il considère que savoir formuler les bonnes questions représente une compétence cognitive de haut niveau, plus pertinente que jamais à l’ère de l’intelligence artificielle.

Le patron de ChatGPT Sam Altman prédit la disparition totale de certains métiers : voici l’exemple qu’il a donné

Le dirigeant d’OpenAI, Sam Altman, a livré ses prévisions sur l’avenir du marché de l’emploi à l’ère de l’intelligence artificielle lors de la conférence Capital Framework for Large Banks organisée par la Réserve fédérale américaine. Bien qu’il reconnaisse la difficulté de faire des prédictions précises sur une technologie encore émergente, le créateur de ChatGPT n’hésite pas à annoncer des bouleversements majeurs. Selon le patron d’OpenAI, l’intelligence artificielle va provoquer la disparition complète de certaines catégories professionnelles, tout en créant simultanément de nouveaux secteurs d’activité. Parmi les métiers menacés, il désigne particulièrement les agents de support clientèle comme étant en voie d’extinction. Sam Altman décrit avec précision les défaillances du service client traditionnel : « Auparavant, contacter le service client relevait du parcours du combattant. Entre les menus vocaux interminables, les multiples transferts d’un interlocuteur à l’autre, les incompréhensions répétées et les heures d’attente, l’expérience s’avérait particulièrement frustrante et souvent infructueuse. » À l’inverse, les assistants virtuels dotés d’intelligence artificielle révolutionnent cette expérience. Ces agents numériques agissent avec l’efficacité de professionnels expérimentés, éliminant les désagréments traditionnels. « Désormais, un seul appel suffit, et la demande est traitée automatiquement et complètement », souligne-t-il. Les domaines préservés de l’automatisation Néanmoins, Sam Altman nuance son propos en identifiant des secteurs où l’intervention humaine demeurera indispensable. Dans le domaine médical notamment, malgré les capacités diagnostiques déjà impressionnantes de ChatGPT, il maintient sa préférence pour l’expertise médicale humaine. « La médecine restera largement pratiquée selon les méthodes traditionnelles, avec une supervision humaine constante », précise-t-il. Concernant le développement informatique, le dirigeant observe une transformation plutôt qu’une substitution. Les programmeurs voient leur productivité décupler grâce à l’IA, mais cette amélioration s’accompagne d’une demande croissante en solutions logicielles, maintenant ainsi la nécessité de compétences humaines dans ce secteur.

Ce site vous propose des informations fiables, produites par une équipe de rédacteurs engagés au quotidien.

Vous avez été inscrit avec succès ! Oups ! Un problème est survenu, veuillez réessayer.

Contact

contact@infos229.com

Calavi Carrefour Tankpè, Atlantique - Bénin

Copyright © 2025 Infos 229