TENDANCES
Comparateur
- AUTO
Le développement « matériel » des technologies d’intelligence artificielle suit pour l’instant deux courants principaux; le premier courant, qui est aussi le plus important en terme de coûts, implique de très gros serveurs de calculs destinés à effectuer des traitements sur une masse considérable de données (Big Data); c’est la voie choisie par Google, IBM et Microsoft, qui utilisent leurs serveurs comme des siphons à données venant « alimenter » des logiciels de deep learning semblables à des ogres informatiques.
Le second courant est celui d’une IA déportée et mobile; il se murmure qu’Apple travaillerait sur une puce dédiée à l’IA , ce qui lui permettrait de ne pas dépendre de serveurs externes et surtout de respecter son engagement de ne pas traiter en masse les données des utilisateurs iOS. Qualcomm travaille aussi sur cette voie et a présenté récemment une puce entièrement dédiée aux calculs pour les IA embarquées. Et comme on peut s’en douter, ces puces mobiles de dernière génération devront être extrêmement puissantes.
Une troisième voie se dessine grâce aux équipes du Microsoft Lab situées à Redmond et à Bangalore (Inde); les ingénieurs de Redmond ont en effet réussi à faire fonctionner une IA et un système de reconnaissance visuelle capable de détecter les écureuils (si, si !) grâce à un simple Raspberry Pi 3. Les algorithmes de deep Learning ont été profondément retravaillés pour « tenir » dans cette configuration matérielle très limitée. Ofer Dekel, l’un des chefs de projet du Microsoft Lab, estime que « n’importe quel hobbyiste disposant d’un Raspberry Pi devrait être capable de faire cela« .
Pour faire tenir son iA sur un système de seulement quelques ko de RAM, l’équipe du Microsoft Lab a compressé les paramètres de son réseau de neurones virtuels jusqu’à une taille de quelques bits au lieu des 32 bits d’origine; les algorithmes ont de leur côté subi aussi une « sparsification », c’est à dire une réécriture permettant d’éviter au maximum les redondances de code.
Le plus compliqué sera néanmoins de passer à l’étape supérieure, et sur des projets d’IA nettement plus sophistiqués : « il n’existe aujourd’hui aucun moyen de prendre un réseau neuronal « profond », et de le rendre tout aussi performant qu’actuellement tout en consommant 10 000 fois moins de ressources » déclare un Ofer Deckel lucide. Pour changer la donne, il faudrait inventer de nouveaux types d’iA, qui pourraient alors essaimer sur des systèmes peu puissants comme les puces de certains appareils électro-ménagers ou les implants médicaux.
SOURCEengadget
La Fédération Française de Football (FFF) annonce avoir fait l’objet d’une cyberattaque qui se veut assez massive, avec...
Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici...
La plateforme de cryptomonnaies Coinbase annonce que la Securities and Exchange Commission (SEC), le gendarme boursier américain, a accepté...
YouTube Premium Lite va être un nouvel abonnement avec l’avantage d’être moins cher que l’offre existante. Selon Bloomberg,...
Les États-Unis ont investi un montant record de 338 milliards de dollars dans la transition énergétique en 2024, et principalement...
21 Feb. 2025 • 21:02
C’est une carte informatique, pas une puce. Cette carte comprend un processeur…
Ce que les ingénieurs de Microsoft ont fait c’est rendre moins couteux en mémoire le « logiciel » qui permet de reconnaitre des écureuils. Rien d’autre !
En pratique je pense qu’ils avaient une grosse IA « générale » qui a été entrainé, et ils ont ensuite minimisé l’IA en ne gardant que ce qui c’est avéré être utile. Du coup bien que très intéressant, cette IA ne doit que peut apprendre, et ne peut pas « partir de zéro ».
On parle bien du Raspberry Pi là ? Parce que la carte possède 1Go depuis la version 2…