TENDANCES
Comparateur
- AUTO
La plupart des chercheurs en robotique (pour ne pas dire tous) connaissent par coeur les fameuses lois de la robotique établies par l’écrivain de S.F Isaac Asimov; ces « lois » sont en fait trois règles à suivre afin d’éviter que les machines ne deviennent demain nos nouveaux maîtres :
Si ces lois « encadrent » souvent de façon implicite les travaux en robotique, qu’en est-il de la recherche sur les Intelligences artificielles ? Sur ce sujet, il n’est pas interdit de penser que l’on parlera peut-être à l’avenir des lois de Nadella concernant l’IA; le patron de Microsoft a en effet décrit pour le site Slate un cahier des charges à respecter si l’on veut espérer pouvoir vivre en bonne intelligence avec les cerveaux informatisés. Ces lois sont les suivantes :
1- Une IA doit être conçue pour servir l’humanité.
2- L’IA doit être transparente : « Nous ne voulons pas seulement des machines intelligentes mais des machines intelligibles » explique Nadella.
3- L’IA doit maximiser ses performances sans détruire la dignité des individus. « L’industrie technologique ne doit pas dicter les valeurs et les vertus de ce futur ».
4- L’IA doit être conçue pour garantir la confidentialité.
5- L’IA doit avoir des algorithmes « réversibles » de façon à ce que les individus puissent « revenir sur des actions négatives inattendues (de la part de l’IA, Ndlr) »
6- L’IA doit être protégée contre les « biais », afin d’éviter des formes de discrimination semblables à celles que les hommes et les femmes peuvent établir.
Il se dégage de ces grands principes une volonté d’éviter ce qui semble pourtant inévitable dans une économie libre et qui ne supporte aucune forme de tutelle ou de cadres concernant la libre concurrence. Car les mêmes préventions avaient été faites concernant la robotisation de la société, et pourtant l’être humain a été petit à petit évincé de nombreux sites de production au profit de robots sophistiqués; Foxconn, le principal fabricant d’électronique dans le monde, a remplacé en seulement une année la moitié de ses ouvriers humains (soit plus de 50 000 personnes) par des robots.
Croire que les métiers intellectuels ou de service pourront éviter le grand remplacement par une IA de plus en plus sophistiquée semble pour le moins naïf, même si l’inquiétude de Nadella est ici très légitime. Mais s’est-on déjà soucié de « détruire la dignité de l’individu » lorsqu’on a établi des règles de développement économiques hyper-concurrentielles qui aboutissent à ce que les perdants du système finissent par être considérés comme un mal nécessaire ? Et comment ne pas voir que les « biais » ne concerneront pas seulement le respect de la « diversité » humaine mais aussi les connaissances même de ces IA ?
Les systèmes experts sont en effet déjà largement « influencés » (pour ne pas dire formatés) par les savoirs très codifiés qui leur servent de base de données; et ces savoirs ne sont pas sans biais (notamment les savoirs économiques et politiques, qui impactent pourtant directement sur la vie des individus). Et l’on pourrait en dire autant du respect de la vie privée et de la confidentialité à l’ère du tout numérique, déjà bien entamé dans ce début de siècle post-Snowden…Nadella pense t-il que l’espionnage va s’arrêter à la porte des IA ? La défense du patron de Microsoft est certes noble, cela ne fait aucun doute, mais le contexte actuel ne rend pas forcément très optimiste quant aux garde-fous qui seront mis en place pour éviter les dérives…toutes les dérives…
Des chercheurs britanniques de l’université de Birmingham ont développé une nouvelle théorie décrivant les...
C’est la semaine du Black Friday,l’avant dernière semaine du mois de novembre, qui est une période de grosses promotions pour...
La tablette Pixel Tablet 2 ne verra visiblement pas le jour, avec Google ayant décidé d’annuler sa sortie. Le modèle existant,...
Jessica Rosenworcel, la première femme à occuper le poste de présidente permanente de la FCC (Federal Communications Commission),...
Une plainte fédérale ciblant la loi du Minnesota « Utilisation de la technologie Deep Fake pour influencer une...
21 Nov. 2024 • 22:43
21 Nov. 2024 • 20:09
21 Nov. 2024 • 18:56
21 Nov. 2024 • 18:44
Un commentaire pour cet article :