Le « parrain » de l’IA quitte Google : Geoffrey Hinton évoque des « dangers effrayants »
Un homme largement considéré comme le parrain de l’intelligence artificielle (IA) a quitté son emploi, mettant en garde contre les dangers croissants des développements dans le domaine.
Geoffrey Hinton, âgé de 75 ans, a annoncé sa démission de Google dans une déclaration au New York Times, affirmant qu’il regrettait désormais son travail.
Il a déclaré à la BBC que certains des dangers des chatbots IA étaient « assez effrayants ».
« En ce moment, ils ne sont pas plus intelligents que nous, pour autant que je sache. Mais je pense qu’ils le seront bientôt. »
Le Dr Hinton a également reconnu que son âge avait joué dans sa décision de quitter le géant de la technologie, déclarant à la BBC : « J’ai 75 ans, il est donc temps de prendre ma retraite. »
Les recherches pionnières du Dr Hinton sur l’apprentissage en profondeur et les réseaux de neurones ont ouvert la voie aux systèmes d’IA actuels comme ChatGPT.
Mais le psychologue cognitif et informaticien anglo-canadien a déclaré à la BBC que le chatbot pourrait bientôt dépasser le niveau d’informations détenu par un cerveau humain.
« En ce moment, ce que nous voyons, ce sont des choses comme le GPT-4 qui éclipse une personne dans la quantité de connaissances générales qu’elle possède et elle l’éclipse de loin. En termes de raisonnement, ce n’est pas aussi bon, mais c’est déjà le cas.
Raisonnement simple
« Et étant donné le rythme des progrès, nous nous attendons à ce que les choses s’améliorent assez rapidement. Nous devons donc nous en préoccuper. »
Dans l’article du New York Times, le Dr Hinton a fait référence aux « mauvais acteurs » qui essaieraient d’utiliser l’IA pour de « mauvaises choses ».
Lorsque la BBC lui a demandé de donner des détails à ce sujet, il a répondu : « C’est juste une sorte de pire scénario, une sorte de scénario cauchemardesque.
« Vous pouvez imaginer, par exemple, qu’un mauvais acteur comme [le président russe Vladimir] Poutine a décidé de donner aux robots la possibilité de créer leurs propres sous-objectifs. »
Le scientifique a averti que cela pourrait éventuellement « créer des sous-objectifs comme » J’ai besoin d’avoir plus de pouvoir « ».
Il a ajouté: « Je suis arrivé à la conclusion que le type d’intelligence que nous développons est très différent de l’intelligence que nous avons.
« Nous sommes des systèmes biologiques et ce sont des systèmes numériques. Et la grande différence est qu’avec les systèmes numériques, vous avez de nombreuses copies du même ensemble de poids, du même modèle du monde.
« Et toutes ces copies peuvent apprendre séparément mais partager leurs connaissances instantanément. C’est donc comme si vous aviez 10 000 personnes et chaque fois qu’une personne apprenait quelque chose, tout le monde le savait automatiquement. Et c’est ainsi que ces chatbots peuvent en savoir bien plus que n’importe qui. »
Il a souligné qu’il ne voulait pas critiquer Google et que le géant de la technologie avait été « très responsable ».
« En fait, je veux dire de bonnes choses sur Google. Et elles sont plus crédibles si je ne travaille pas pour Google. »
Dans un communiqué, le scientifique en chef de Google, Jeff Dean, a déclaré : « Nous restons attachés à une approche responsable de l’IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »
BBC
Créé le 2 mai 2023 09:33Nous vous proposons aussi
TAGS
étiquettes: GAFA