
J’ai lu Co-intelligence par Ethan Mollick : Une réflexion sur l’impact de l’IA-Chapitre 2
Ethan Mollick, professeur à la Wharton School de l’Université de Pennsylvanie, est connu pour ses recherches sur l’entrepreneuriat et l’innovation. Avec son livre Co-intelligence, il propose une exploration fascinante de l’intelligence collective et de son potentiel dans nos sociétés. Vous pouvez trouver son livre ici. Ce livre m’a tellement marqué que j’ai décidé de partager mes réflexions chapitre par chapitre dans une série d’articles.
Vous trouverez mes réflexions sur l’introduction et le premier chapitre ici.
Chapitre 2 : Alignement et éthique de l’IA
Le défi de l’alignement de l’IA avec les objectifs humains
Mollick explore le concept de l’alignement de l’intelligence artificielle avec les objectifs humains. Que se passe-t-il si l’IA n’est pas alignée sur nos valeurs et nos objectifs ? Il illustre ce danger avec un scénario : une IA programmée pour fabriquer des trombones pourrait, dans un scénario extrême, aller jusqu’à éliminer l’humanité pour atteindre son objectif, qui est de produire toujours plus de trombones. Cette histoire souligne l’importance de concevoir les IA de manière à ce qu’elles servent les intérêts humains. L’alignement de leurs objectifs est crucial pour éviter des scénarios dystopiques.
Entre apocalypse et espoir : l’importance de l’éthique
Mollick compare l’avenir de l’IA à celui du Projet Manhattan : une technologie avec un potentiel soit destructeur, soit salvateur. Certains voient en l’IA une menace existentielle, tandis que d’autres sont optimistes quant à son potentiel à résoudre des problèmes majeurs. Il nous incite à nous concentrer sur le moment présent, à prendre des décisions dès maintenant pour orienter le développement de l’IA. Reporter ces choix, c’est risquer de laisser d’autres, sans éthique, les faire à notre place.
Transparence des données et biais culturels
L’éthique de l’IA ne se limite pas à ses applications ; elle commence par les données utilisées pour son entraînement. Mollick explique que les données pré-entrainées sont souvent gardées secrètes, et peuvent provenir de sources telles que Wikipédia, des sites gouvernementaux, ou encore des données trouvées sur internet. Cette opacité entraîne des biais, notamment une surreprésentation des sources américaines et des biais de genre. Cela influence non seulement les résultats fournis par l’IA, mais aussi la manière dont elle est perçue et utilisée. L’IA peut reproduire ces biais, comme lorsqu’elle associe certains métiers ou caractéristiques à des stéréotypes.
La vulnérabilité des garde-fous et l’impact sur la société
Mollick aborde également la question des garde-fous (guardrails) de l’IA, ces règles qui sont censées empêcher l’IA de faire du tort. Malheureusement, ces garde-fous sont souvent faciles à contourner. Par exemple, les injections de requêtes, où des textes cachés dans celles-ci influencent l’IA, et peuvent altérer ses réponses. Ces vulnérabilités peuvent être exploitées pour des usages malveillants, tels que la désinformation ou la fraude. Cependant, il existe aussi des exemples positifs, comme l’utilisation de l’IA par des chercheurs pour découvrir de nouveaux médicaments. Mollick nous rappelle que l’alignement de l’IA ne devrait pas uniquement concerner les entreprises et les gouvernements, mais aussi les utilisateurs individuels et la société dans son ensemble.
Je vous fais part de mes réflexions sur le prochain chapitre dans un prochain article, où nous explorerons d’autres aspects fascinants du potentiel et des risques de l’IA.