Arm vise à améliorer les cerveaux de nos appareils
Arm, le concepteur de puces dont les architectures alimentent 99 % des smartphones, envisage l’IA comme moteur d’une nouvelle vague d’innovations pour nos combinés.
La société a dévoilé ce plan après la sortie de Llama 3.2, les premiers modèles open source de Meta capables de traiter à la fois des images et du texte. Arm a déclaré que les modèles fonctionnaient « de manière transparente » sur ses plateformes de calcul.
Les LLM textuels plus petits (Llama 3.2 1B et 3B) sont optimisés pour les puces mobiles basées sur Arm. Par conséquent, les modèles peuvent offrir des expériences utilisateur plus rapides sur les smartphones. Le traitement de plus d’IA en périphérie peut également économiser de l’énergie et des coûts.
Ces améliorations offrent de nouvelles opportunités de mise à l’échelle. En augmentant l’efficacité des LLM, Arm peut exécuter davantage d’IA directement sur les smartphones. Pour les développeurs, cela pourrait conduire à des innovations plus rapides.
Arm s’attend à ce que de nouvelles applications mobiles infinies émergent en conséquence.
Les LLM effectueront des tâches en votre nom en comprenant votre localisation, votre emploi du temps et vos préférences. Les tâches de routine seront automatisées et les recommandations personnalisées sur l’appareil. Votre téléphone évoluera d’un outil de commande et de contrôle vers un « assistant proactif ».
Arm vise à accélérer cette évolution. L’entreprise basée au Royaume-Uni souhaite que ses processeurs fournissent « les bases de l’IA partout ».
Arm a un calendrier ambitieux pour cette stratégie. D’ici 2025, le géant des puces souhaite que plus de 100 milliards d’appareils basés sur Arm soient « prêts pour l’IA ».