Apple teste son chatbot basé sur les LLMs, actuellement destiné à un usage interne pour résumer, traduire et effectuer d’autres tâches. Cependant, l’entreprise n’a pas prévu de sortir le chatbot basé sur l’AGI d’Apple dans un avenir proche car elle n’a pas de stratégie claire. Actuellement, Apple essaie de comprendre les scénarios d’utilisation dans son écosystème.
Qu’est-ce qu’AppleGPT ?
Tout comme les autres chatbots basés sur les LLMs, il a été entraîné sur un ensemble de données massif. Apple a discrètement construit le cadre pour rivaliser avec les leaders de l’industrie de l’AGI, tels que OpenAI, Google DeepMind et Meta AI. Apple n’a pas encore officiellement annoncé le nom de code interne pour Apple GPT, Ajax, qui est communément connu sous le nom d’Apple GPT en interne.
Tim Cook, PDG d’Apple, a déclaré qu’ils investiraient 22,6 milliards de dollars dans la R&D en IA et qu’ils avaient dépensé 3 milliards de dollars cette année. Cependant, à l’heure actuelle, l’IA d’Apple est loin d’égaler OpenAI, MetaAI ou Google DeepMind, car ils n’ont pas utilisé une seule fois des termes d’IA lors de la WWDC 23.
Apple recrute des experts en intelligence artificielle générale.
Ces derniers mois, nous avons vu des entreprises recruter des experts en AGI, telles que Netflix, Amazon et Disney, en publiant des offres d’emploi. Apple a publié des dizaines d’offres d’emploi principalement pour des ingénieurs et des scientifiques entre juin et août dans plusieurs bureaux d’Apple dans le monde, qui connaissent l’intelligence artificielle sur son site web. Les offres d’emploi ne se concentrent pas seulement sur l’AGI, mais recherchent également des experts en réalité mixte, pour lesquels ils ont besoin d’experts en apprentissage automatique.
L’entreprise a déjà réorganisé son personnel des iPhones et des iPads, et une partie du personnel travaille sur l’intelligence artificielle générale d’Apple. Les rôles sont répartis dans les bureaux de Californie, Seattle, Paris et Beijing, où ils travaillent sur des modèles de langage volumineux ou LLMs. De plus, le groupe Machine Intelligence, Neural Design (MIND) recrute pour ses LLMs dans le laboratoire de Paris afin de travailler sur l’unification de l’IA existante d’Apple, telle que leur détection de crash, qui utilise l’IA. De nombreuses entreprises d’IA utilisent leur plateforme mobile, iOS, afin que l’entreprise puisse s’assurer qu’elle fonctionne parfaitement sur mobile plutôt que dans le cloud.
Je crois que ChatGPT a été interdit/figurait sur la liste des logiciels restreints chez Apple depuis des mois. Évidemment, la sortie de ChatGPT sur iOS aujourd’hui rend cela à nouveau pertinent.
— Mark Gurman (@markgurman)
Leur IA doit fonctionner au mieux sur mobile, car le cœur de métier d’Apple est la vente d’iPhone. L’entreprise devra également relever des défis car elle doit construire l’expérience basée sur l’apprentissage automatique de nouvelle génération de la manière la plus respectueuse de la vie privée possible. D’autres outils d’AGI tels que ChatGPT, Bard ou Bing AI collectent et stockent des données pour améliorer leurs modèles d’AGI. De plus, ils effectuent également des évaluations humaines de la manière dont les utilisateurs utilisent le modèle d’AGI.
Selon des rapports récents, lors de réunions d’investisseurs, Tim Cook a confirmé et a montré de l’intérêt pour l’IA générative. Les offres d’emploi d’Apple confirment la même chose, car Apple recherche des personnes qui connaissent l’apprentissage automatique et qui s’intéressent à la conversation sur l’IA générative afin de pouvoir comprendre et exécuter l’AGI dans leurs produits. Pour l’IA, l’entreprise a acquis la start-up Xnor basée à Seattle, spécialisée dans l’exécution de modèles d’apprentissage automatique complexes sur des appareils mobiles.
Malgré les similitudes, cela ne signifie pas que le chatbot sera très similaire à OpenAI ChatGPT, car il est très probable que cette fonctionnalité ne sera accessible qu’avec les produits et services d’Apple. C’est juste que le modèle est une IA générative et qu’actuellement, il est utilisé comme un outil pour les employés internes et l’entreprise ne travaille sur rien de similaire à ChatGPT. L’entreprise utilise de nombreux outils de développement internes qui ne sont pas destinés à être publiés, comme l’outil de mise en scène de Microsoft pour activer les paramètres cachés de Windows.
Apple mène des tests avec Siri pour intégrer l’IA. Nous avons récemment reçu un rapport selon lequel Google prévoit d’intégrer l’AGI dans Google Assistant, et les ingénieurs d’Apple testent également leur concept LLM pour Siri. Avant Google et Apple, Microsoft a supprimé Cortana de Windows 11 dans la version de prévisualisation de Windows Insider pour promouvoir et se concentrer sur Windows CoPilot. Le nom de code de cela est Bobcat, ce qui apporte la fonction de génération de langage à Siri.
Le cadre de cela s’appelle « Génération de langage naturel de Siri », en effectuant des tests avec l’équipe de développement, Apple explore comment la génération de langage pourrait être utilisée. Certains rapports suggèrent qu’elle peut raconter des blagues et être utilisée pour des minuteries, entre autres choses. À ce stade, la génération de langage naturel de Siri est basée sur des modèles et ne génère rien. Cela a posé plusieurs défis pour l’équipe d’ingénierie et montre comment Siri s’est amélioré au cours de la dernière décennie.
Apple développe Siri avec l’AGI, mais rien ne sera publié prochainement car ils rectifient actuellement les problèmes sous-jacents de Siri avant d’intégrer l’AGI dans Siri d’Apple. L’objectif à court terme est de faire fonctionner l’IA sur leurs appareils, en particulier l’iPhone. Ensuite, ils pourront rendre les LLMs plus avancés et étendre leurs capacités d’IA à d’autres services tels que les photos, les e-mails, etc.
De plus, le firmware récent tvOS 16.4 d’Apple révèle également l’intégration de l’IA. Cependant, il n’est pas encore clair quelles capacités apportera le dernier Apple GPT à l’écosystème. tvOS semble être l’un des premiers appareils à apporter des capacités d’IA, car il se fond dans l’écosystème avec accès à Apple TV et HomePod. Cependant, le code suggère d’autres appareils, y compris l’iPhone, l’iPad et le Mac.
La fonctionnalité n’est pas encore activée, ou cette fonctionnalité cachée ne peut pas être activée, donc tout le reste est encore à connaître dans le futur. D’autre part, Apple se concentre également sur un casque de réalité mixte, qui devrait être lancé d’ici la fin de l’année prochaine. Pour stimuler le développement, Apple recrute davantage d’experts en apprentissage automatique. Outre Apple, d’autres entreprises comme Samsung travaillent également sur leur version de l’intelligence artificielle, mais n’ont encore rien confirmé ni publié de nouvelles, à l’exception du fait qu’elles ont récemment acheté beaucoup de GPU NVIDIA et ont déplacé leurs ressources GPU pour se concentrer sur l’AGI de Samsung.