Robots 1900

2 000 signataires, dont l’astrophysicien Stephen Hawking et Elon Musk, patron de SpaceX, ont adopté un guide de référence pour un développement éthique de l’intelligence artificielle. Ces « 23 principes d’Asilomar » ne sont pas sans rappeler les 3 lois de la robotique de l’écrivain Isaac Asimov.

« Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l’histoire humaine. Malheureusement, il pourrait aussi s’agir du dernier, à moins que nous apprenions à éviter les risques. » L’avertissement lancé en 2014 par l’astrophysicien britannique Stephen Hawking était probablement présent à l’esprit des participants au séminaire Beneficial AI organisé par le Future of Life Institute (FLI, institut pour le futur de la vie) à Asilomar, en Californie, début janvier.

Si les initiatives et les collectifs se multiplient ces derniers temps en faveur d’un développement éthique de l’intelligence artificielle (IA), ces réflexions dispersées n’ont pas encore abouti à un guide commun en la matière. Le FLI espère combler ce manque grâce à ses « 23 principes d’Asilomar » adoptés pendant ces jours de réflexion collective. À ce stade, ils ont été signés par 816 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et 1 200 signataires d’horizons variés, dont des personnalités de renom comme Stephen Hawking ou Elon Musk, le patron de SpaceX et Tesla, qui a participé aux débats.

Commentaires

Vous devez vous inscrire ou vous connecter pour poster un commentaire