Gurman : les fonctionnalités d’IA d’iOS 18 seront alimentées par LLM « entièrement sur l’appareil », offrant des avantages en matière de confidentialité et de vitesse

0
135

Comme l’indiquent une grande partie des documents de recherche publiés par Apple ces derniers mois, la société investit massivement dans toutes sortes de technologies d’intelligence artificielle. Apple annoncera sa stratégie d’IA en juin à la WWDC, dans le cadre d’iOS 18 et de ses autres nouvelles versions d’OS.

Dans la dernière newsletter Power On, Mark Gurman dit s’attendre à ce que les nouvelles fonctionnalités iPhone AI soient entièrement alimentées par un grand modèle de langage hors ligne, sur l’appareil, développé par Apple. Vous pouvez vous attendre à ce qu’Apple vante les avantages de cette approche en matière de confidentialité et de rapidité.

9to5Mac avait précédemment trouvé des références de code dans iOS 17.4 faisant référence à un modèle sur l’appareil appelé « Ajax ». Apple travaille également sur des versions d’Ajax hébergées sur serveur.

L’inconvénient des LLM sur appareil est qu’ils ne peuvent pas être aussi puissants que les modèles qui s’exécutent sur d’énormes batteries de serveurs, avec des dizaines de milliards de paramètres et des données mises à jour en permanence.

Cependant, les ingénieurs Apple peuvent probablement profiter de l’intégration verticale complète de ses plates-formes, avec des logiciels adaptés aux puces de silicium Apple à l’intérieur de ses appareils, pour tirer le meilleur parti d’une approche sur l’appareil. Les modèles sur appareil sont généralement beaucoup plus rapides à répondre que le traitement d’une demande via un service cloud, et ils ont également l’avantage de pouvoir travailler hors ligne dans des endroits sans connectivité ou limités.

Bien que les LLM sur appareil ne disposent pas de la même base de données riche et intégrée de connaissances que quelque chose comme ChatGPT pour répondre à des questions sur toutes sortes de faits aléatoires, ils peuvent être configurés pour être très compétents dans de nombreuses tâches. Vous pouvez imaginer qu’un LLM sur l’appareil pourrait générer des réponses automatiques sophistiquées aux messages, ou améliorer l’interprétation de nombreuses requêtes Siri courantes, par exemple.

Cela s’inscrit également parfaitement dans le strict respect de la vie privée d’Apple. Il n’y a aucun mal à traiter tous vos e-mails et messages texte téléchargés via un modèle intégré à l’appareil, car les données restent locales.

Les modèles sur appareil peuvent également être capables d’effectuer des tâches d’IA génératives telles que la création de documents ou d’images, basées sur des invites, avec un résultat décent. Apple a toujours la possibilité de collaborer avec une entreprise comme Google pour recourir également à quelque chose comme Gemini sur le serveur pour certaines tâches.

Nous saurons avec certitude ce qu’Apple prévoit de faire lorsqu’elle annoncera officiellement sa stratégie d’IA à la WWDC. La keynote débutera le 10 juin et verra la société dévoiler toutes les nouvelles fonctionnalités logicielles à venir sur iPhone, iPad, Mac, Apple Watch, Apple TV, Vision Pro et plus encore.

FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.

Marion Legrand
Marion a été éditeur en chef pour SOON. elle a précédemment créé des stratégies de marketing de contenu et des textes convaincants pour diverses entreprises de technologie et de commerce électronique. Elle a cofondé deux jeux de rôle fantastiques en direct qui ont offert des expériences immersives et interactives pendant près de 10 ans.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici