Des chercheurs d’Apple ont récemment présenté leur système d’intelligence artificielle, ReALM, qui vise à optimiser les performances des assistants vocaux tels que Siri. Ce système permet une meilleure compréhension des références et une contextualisation des demandes.
Alors qu’Apple est souvent critiqué pour son retard dans le domaine de l’IA, la société de Cupertino travaille activement à l’amélioration des réponses de Siri. Cela est illustré par les recherches de ses scientifiques qui ont abouti à un système d’IA capable de comprendre des références ambiguës et le contexte des conversations.
ReALM : une IA pour résoudre les références ambiguës
Baptisé ReALM (Reference Resolution As Language Modeling), ce service utilise des LLM (Language Learning Models) pour transformer la tâche complexe de résolution de références, y compris dans des images, en un problème de modélisation du langage. Concrètement, l’outil découpe l’image à l’écran en petites entités pour générer une représentation textuelle en capturant l’agencement visuel.
Des modèles plus petits et plus performants
Apple a constaté que ses plus petits modèles ReALM (80 millions, 250 millions, 1 milliard et 3 milliards de paramètres) fonctionnaient de manière similaire à GPT-4 et qu’ils étaient donc mieux adaptés à une utilisation sur un terminal mobile. Cette orientation démontre la volonté continue d’Apple d’investir dans son assistant vocal Siri.