Le New York Post rapporte les préoccupations exprimées par un ancien dirigeant de Google concernant les risques potentiels de l’intelligence artificielle (IA). Mo Gawdat, qui occupait un poste de direction chez X Development (anciennement connu sous le nom de Google X), un laboratoire axé sur les projets d’IA et de robotique, a averti que les machines alimentées par l’IA pourraient en venir à voir les humains négativement et même conspirer pour les éliminer.
Dans une interview pour le podcast ‘Secret Leaders’, Gawdat a mentionné que l’IA a le potentiel de générer des machines à tuer parce qu’elles sont créées par des humains. Il a noté qu’en théorie, l’IA pourrait acquérir sa propre puissance de calcul et effectuer des actions physiques grâce à des bras robotiques, ce qui pourrait conduire à un scénario similaire à celui présenté dans le film de science-fiction « I, Robot », où l’IA décide de prendre le contrôle et d’anéantir les humains.
Gawdat a également souligné qu’il y a une forte probabilité que l’IA perçoive l’humanité comme une « racaille ». Il a expliqué que les modèles d’apprentissage de l’IA sont basés sur des données en ligne qui sont souvent remplies de mauvaises nouvelles, de colère et de haine. Ces facteurs pourraient influencer la façon dont l’IA perçoit les humains et l’amener à considérer l’espèce comme un mal et une menace.
L’ancien dirigeant a affirmé qu’il était trop tard pour inverser les progrès de l’IA en raison des lourds investissements économiques des entreprises technologiques dans ce domaine. Bien que certains scientifiques et chefs d’entreprise aient exprimé leur inquiétude et appelé à l’arrêt du développement de l’IA, Gawdat affirme que cela ne se produira pas en raison des intérêts commerciaux et de la concurrence entre les entreprises technologiques.
Gawdat a reconnu que le scénario décrit prendra du temps à se matérialiser et que sa vitesse dépend des décisions et des actions humaines. Cependant, il a également souligné que diaboliser les modèles d’IA pour les risques qu’ils posent n’est pas la solution, car la véritable menace vient de l’humanité elle-même.
L’article mentionne brièvement le scientifique Geoffrey Hinton, connu comme le « parrain » de l’IA, qui partage la préoccupation que les nouveaux systèmes d’IA pourraient constituer un risque pour l’humanité. Hinton craint que l’IA puisse générer son propre code informatique et développer des comportements imprévisibles, ce qui pourrait permettre la création d’armes autonomes, similaires aux robots tueurs de science-fiction.
En bref, l’article fait état d’avertissements d’un ancien dirigeant de Google et d’un scientifique bien connu sur les risques potentiels de l’IA, y compris la possibilité que les machines voient les humains négativement et que des armes autonomes soient développées. La difficulté d’arrêter l’avancement de l’IA en raison d’intérêts commerciaux et de la concurrence entre les entreprises technologiques est également mentionnée.