Phison aiDAPTIV+ : inférence IA 10x plus rapide sur PC

Actualités
0

Phison aiDAPTIV+ : 10x plus rapide pour l’inférence IA sur PC (et des modèles 3x plus grands)

Lors du CES 2026, Phison (connu à la base pour ses contrôleurs SSD) a présenté une technologie qui pourrait changer la manière dont on exécute des modèles IA en local sur PC : aiDAPTIV+, une combinaison logiciel + matériel capable d’accélérer l’inférence jusqu’à 10 fois, tout en permettant d’utiliser des modèles bien plus lourds sur des configurations “grand public”.

L’idée est simple : au lieu d’être limité par la RAM ou la VRAM, aiDAPTIV+ transforme le stockage flash (SSD) en “mémoire gérée” pour conserver des données IA essentielles et éviter des recalculs coûteux. Résultat : de meilleures performances, un temps de réponse plus rapide, et la possibilité de charger des LLM (Large Language Models) auparavant impossibles sur des machines modestes.

Le problème n°1 des IA locales : la mémoire (pas la puissance)

Aujourd’hui, beaucoup de PC “AI Ready” ont des CPU/NPU/GPU performants, mais restent limités par la capacité mémoire :

  • La VRAM du GPU est vite saturée avec les grands modèles
  • La RAM (DDR5) peut être insuffisante, surtout sur laptop (16/32 Go)
  • Les modèles modernes consomment énormément de mémoire avec les longs contextes et les tâches “agentic AI” (IA qui enchaîne des étapes)

Phison explique un cas très concret : pendant l’inférence, quand le modèle ne peut plus tout garder dans le KV cache (Key-Value cache) du GPU, des éléments sont “éjectés”. Si l’IA en a besoin à nouveau (contexte long, boucle agent), le GPU doit recalculer… ce qui ralentit énormément.

Comment fonctionne Phison aiDAPTIV+ ?

Le principe d’aiDAPTIV+ est d’utiliser le SSD comme extension intelligente de la mémoire, de façon beaucoup plus optimisée qu’un simple swap classique.

1) Sauvegarder le KV cache sur le SSD (au lieu de le perdre)

Avec aiDAPTIV+ :

  • les tokens / éléments qui ne rentrent plus dans le KV cache GPU sont écrits sur la mémoire flash
  • ils sont conservés pour être relus plus tard
  • le modèle évite de recalculer les mêmes données

Ce mécanisme réduit la pression sur la mémoire et peut réduire énormément le Time To First Token (TTFT), c’est-à-dire le temps avant que l’IA affiche le premier mot.

2) Garder des paramètres “inactifs” en flash (parfait pour les MoE)

Phison cible particulièrement les modèles Mixture of Experts (MoE) : une partie seulement du modèle travaille à un instant “t”, donc les paramètres non utilisés peuvent rester dans le SSD au lieu d’occuper la RAM.

Jusqu’à 10x plus rapide : ce que Phison annonce

Selon les tests internes de Phison, aiDAPTIV+ peut :

  • accélérer les temps de réponse jusqu’à x10
  • réduire la consommation
  • améliorer fortement le Time To First Token, surtout sur PC portables

Le gain devient encore plus impressionnant quand :

  • le modèle est gros
  • le contexte est long
  • on utilise des workloads “agents” (IA autonome multi-étapes)

120B paramètres sur seulement 32 Go de RAM : la démo qui choque

Le point le plus marquant de l’annonce : Phison affirme qu’un modèle MoE de 120 milliards de paramètres peut fonctionner avec :

32 Go de RAM
au lieu d’environ 96 Go avec une approche classique

…parce que les paramètres “inactifs” restent en flash plutôt que d’être stockés en mémoire principale.

Encore mieux : Tom’s Hardware rapporte qu’un laptop Acer a réussi à exécuter un gpt-oss-120b avec 32 Go de mémoire, ce qui ouvre clairement la porte à l’IA locale sur des machines beaucoup plus accessibles.

PC et marques testées au CES 2026

Phison a présenté aiDAPTIV+ avec plusieurs partenaires et constructeurs, dont :

  • Acer
  • Asus
  • Corsair
  • Emdoor
  • MSI
  • et même Nvidia

Ce détail est important : ça montre que Phison pousse la techno vers le marché PC client, et pas seulement l’entreprise, ce qui était le cas au départ quand la solution était un prototype orienté “enterprise”.

Configuration requise : ce n’est pas “juste un logiciel”

aiDAPTIV+ n’est pas un simple programme à installer.

La stack comprend :

  • un SSD “AI-aware” (un ou plusieurs)
  • basé sur un contrôleur Phison avancé
  • avec firmware spécial
    • le logiciel aiDAPTIV+

La bonne nouvelle, c’est que l’intégration est décrite comme assez directe pour les fabricants et intégrateurs, ce qui laisse penser qu’on verra cette techno sur des PC premium “dev & power users”.

Pourquoi c’est énorme pour le futur des “AI PCs” (Windows / laptops / stations)

1) L’IA locale devient vraiment réaliste

Sans dépendre d’un cloud, on gagne :

  • confidentialité
  • latence plus faible
  • coûts réduits (pas d’abonnement GPU cloud)

2) Les SSD NVMe deviennent un composant “IA”

Jusqu’ici, les SSD servaient au stockage. Avec aiDAPTIV+, ils deviennent une partie active de la pile IA, au même titre que la RAM.

3) Des modèles plus lourds sur des PC plus simples

Si la promesse se confirme, un laptop 32 Go (voire une machine iGPU) pourrait gérer des tâches IA avancées là où il fallait une station énorme avant.

Cas d’usage concrets (2026)

Voici les usages où aiDAPTIV+ peut être un game-changer :

  • Chatbots internes (service client local, base documentaire)
  • IA agent (automatisations, assistants “multi-étapes”)
  • développement IA / tests LLM sur PC
  • création de contenu (résumés, scripts, traduction)
  • IA pour PME (analyse documents / CRM local)
  • workflow GPU limité (VRAM faible mais besoin de gros contexte)

Conclusion : Phison veut “débloquer” l’IA locale sur PC

Avec aiDAPTIV+, Phison propose une réponse directe au plus gros frein des IA locales : la mémoire. En conservant le KV cache et en exploitant le SSD comme mémoire intelligente, la marque annonce :

  • jusqu’à 10x plus rapide
  • moins de consommation
  • modèles bien plus gros sur des PC grand public (ex : 120B sur 32 Go)

Si la techno arrive réellement dans des laptops MSI / Acer / Asus “AI PC”, on pourrait voir en 2026 une nouvelle génération de machines capables d’exécuter de gros LLM sans cloud, de manière fluide.

FAQ

1) C’est quoi Phison aiDAPTIV+ ?

C’est une solution logiciel + SSD optimisé qui accélère l’exécution des modèles IA en local sur PC.

2) aiDAPTIV+ améliore quoi exactement ?

Elle améliore surtout la vitesse d’inférence, le Time To First Token (TTFT) et la gestion mémoire des gros modèles.

3) Pourquoi le SSD est important pour l’IA locale ?

Car les modèles IA sont limités par la RAM/VRAM : le SSD sert d’extension intelligente pour éviter les ralentissements.

4) Que signifie “10x plus rapide” ?

Phison annonce des gains pouvant aller jusqu’à x10, surtout quand la mémoire devient le facteur limitant.

5) aiDAPTIV+ permet vraiment des modèles 3x plus grands ?

Oui, l’objectif est de charger des modèles plus lourds grâce à une meilleure gestion des données en stockage.

6) Qu’est-ce que le KV cache dans un LLM ?

C’est une mémoire utilisée par l’IA pour garder le contexte. Quand il est saturé, les performances chutent.

7) aiDAPTIV+ aide pour les modèles MoE ?

Oui, c’est même l’un des points forts : les Mixture of Experts peuvent garder des parties “inactives” en SSD.

8) Est-ce compatible Nvidia et AMD ?

Phison a montré des démos sur des systèmes incluant Nvidia et AMD, notamment avec des PC MSI et Acer.

9) Faut-il un SSD spécial pour aiDAPTIV+ ?

Oui, la solution nécessite un SSD + contrôleur Phison + firmware adapté, pas juste un SSD classique.

10) Qui va en profiter le plus en 2026 ?

Les utilisateurs qui veulent une IA locale sans cloud : créateurs, développeurs, entreprises et power users sur PC/laptop.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *