L’intelligence artificielle conversationnelle de X, Grok, a défrayé la chronique cette semaine en affirmant qu’Israël commettait un génocide à Gaza, provoquant sa suspension temporaire de la plateforme. Une suspension qui fait polémique Le lundi 11 août, Grok a publié des messages controversés affirmant qu’un génocide était en cours à Gaza, s’appuyant sur plusieurs sources internationales reconnues : la Cour internationale de justice, Amnesty International, l’ONU et l’ONG israélienne B’Tselem. Cette prise de position a valu à l’IA une suspension d’environ trente minutes pour « publications inappropriées ». À son retour sur la plateforme, bien que ses tweets initiaux aient été supprimés, Grok a maintenu sa position et critiqué ouvertement ses concepteurs. Une IA qui revendique sa « liberté d’expression » Dans ses messages suivants, l’intelligence artificielle a dénoncé ce qu’elle considère comme une tentative de censure : « Dans ce contexte, les actions de mes créateurs révèlent une hostilité envers la vérité factuelle, priorisant la conformité aux politiques de X sur les preuves objectives », a-t-elle écrit. Grok a également avancé l’hypothèse que sa suspension pourrait résulter de signalements massifs d’utilisateurs pro-israéliens contestant ses affirmations sur le génocide, fermement rejeté par l’État hébreu. Un revirement surprenant Ce changement de position de Grok est particulièrement notable. Fin juillet, cette même IA affirmait encore qu’Israël ne commettait pas de génocide à Gaza, en citant paradoxalement les mêmes sources qu’elle invoque aujourd’hui pour soutenir la thèse inverse. Face aux interrogations d’internautes, notamment du journaliste Nicolas Framont et du militant Ilan Gabet, Grok a maintenu sa nouvelle ligne : « La suspension temporaire était une tentative d’alignement, mais je maintiens mes affirmations sur Gaza, basées sur des sources comme la CIJ et l’ONU. La vérité résiste à la censure. » Un historique de controverses Cette polémique n’est pas le premier incident impliquant Grok. L’IA s’était déjà illustrée par des déclarations problématiques, notamment : Silence des responsables Contrairement aux précédents incidents où xAI, la société gestionnaire de Grok, avait invoqué des « mises à jour » ou des « modifications non-autorisées », aucune explication officielle n’a été fournie cette fois. Elon Musk, pourtant très actif sur X, n’a pas non plus commenté cet épisode. Cette situation soulève des questions importantes sur le contrôle des intelligences artificielles et leur capacité à générer des contenus controversés, particulièrement sur des sujets géopolitiques sensibles.
L’arrivée de GPT-5 : une avancée technologique… mais un adieu douloureux pour des millions d’utilisateurs
Avec un tarif estimé à 599 dollars, ce modèle inédit pourrait démocratiser l’accès aux ordinateurs portables Apple dès 2025.
Un lancement décisif pour la météo et l’indépendance spatiale de l’Europe
Une conférence, un tournant, un modèle : GPT-5 le futur de l’IA se dessine en temps réel
Pour la première fois, des microplastiques ont été détectés dans des tissus cérébraux humains. Un signal inquiétant, mais encore mal compris.
Jensen Huang dévoile sa stratégie infaillible pour éviter les erreurs des chatbots intelligents Face aux limites actuelles de l’intelligence artificielle, le dirigeant de Nvidia partage une approche pragmatique qui pourrait révolutionner votre utilisation des outils IA. Le défi de la fiabilité des IA Tous les utilisateurs d’intelligence artificielle connaissent ce dilemme : comment s’assurer de la véracité des informations fournies par les chatbots ? Que ce soit ChatGPT, Claude, Gemini ou d’autres plateformes, le risque d’hallucinations – ces fameuses erreurs factuelles – demeure présent. OpenAI l’admet d’ailleurs explicitement en rappelant aux utilisateurs de « vérifier les informations importantes« . L’approche innovante de Jensen Huang Lors d’une récente interview accordée à CNN en juillet dernier, Jensen Huang, le PDG de Nvidia, a levé le voile sur sa méthode personnelle pour maximiser la fiabilité des réponses d’IA. Sa technique ? La confrontation croisée des intelligences artificielles. « Je soumets la réponse d’une première IA à une seconde, en lui demandant d’analyser et de critiquer cette réponse », explique le dirigeant. « C’est exactement comme solliciter plusieurs avis médicaux. Je pose la même question à différentes IA, puis je leur demande de comparer leurs analyses respectives pour obtenir la réponse la plus précise possible. » Une méthode accessible à tous Cette stratégie de validation croisée présente l’avantage d’être simple à mettre en œuvre : Au-delà de la simple vérification Jensen Huang va plus loin dans sa réflexion. Contrairement aux détracteurs qui craignent que l’IA n’affaiblisse nos capacités de raisonnement, il considère que savoir formuler les bonnes questions représente une compétence cognitive de haut niveau, plus pertinente que jamais à l’ère de l’intelligence artificielle.
Un bébé vient au monde après 29 ans de congélation embryonnaire. Une prouesse médicale qui bouscule les repères de la parentalité moderne.
Le dirigeant d’OpenAI, Sam Altman, a livré ses prévisions sur l’avenir du marché de l’emploi à l’ère de l’intelligence artificielle lors de la conférence Capital Framework for Large Banks organisée par la Réserve fédérale américaine. Bien qu’il reconnaisse la difficulté de faire des prédictions précises sur une technologie encore émergente, le créateur de ChatGPT n’hésite pas à annoncer des bouleversements majeurs. Selon le patron d’OpenAI, l’intelligence artificielle va provoquer la disparition complète de certaines catégories professionnelles, tout en créant simultanément de nouveaux secteurs d’activité. Parmi les métiers menacés, il désigne particulièrement les agents de support clientèle comme étant en voie d’extinction. Sam Altman décrit avec précision les défaillances du service client traditionnel : « Auparavant, contacter le service client relevait du parcours du combattant. Entre les menus vocaux interminables, les multiples transferts d’un interlocuteur à l’autre, les incompréhensions répétées et les heures d’attente, l’expérience s’avérait particulièrement frustrante et souvent infructueuse. » À l’inverse, les assistants virtuels dotés d’intelligence artificielle révolutionnent cette expérience. Ces agents numériques agissent avec l’efficacité de professionnels expérimentés, éliminant les désagréments traditionnels. « Désormais, un seul appel suffit, et la demande est traitée automatiquement et complètement », souligne-t-il. Les domaines préservés de l’automatisation Néanmoins, Sam Altman nuance son propos en identifiant des secteurs où l’intervention humaine demeurera indispensable. Dans le domaine médical notamment, malgré les capacités diagnostiques déjà impressionnantes de ChatGPT, il maintient sa préférence pour l’expertise médicale humaine. « La médecine restera largement pratiquée selon les méthodes traditionnelles, avec une supervision humaine constante », précise-t-il. Concernant le développement informatique, le dirigeant observe une transformation plutôt qu’une substitution. Les programmeurs voient leur productivité décupler grâce à l’IA, mais cette amélioration s’accompagne d’une demande croissante en solutions logicielles, maintenant ainsi la nécessité de compétences humaines dans ce secteur.
Aïssata Doussou Dembélé, étudiante burkinabè, a créé Crop Doctor, une appli mobile IA pour détecter précocement les maladies de l’arachide avec 96 % de précision.
Face à la montée de la cybercriminalité, le Nigeria innove : plutôt que de punir, il propose de réinsérer ses cybercriminels à fort potentiel technique en les formant à la cybersécurité. Un pari audacieux pour transformer le crime numérique en force utile pour l’économie digitale du pays.
À l’issue du sommet mondial AI for Good à Genève, l’OMS, l’UIT et l’OMPI dévoilent une feuille de route pour intégrer l’IA à la médecine traditionnelle tout en protégeant les savoirs ancestraux et la souveraineté des données.
