Rechercher
Ajouter un communiqué de presse Se connecter

Infinidat annonce son architecture RAG

Date Communiqué de Presse : 5 décembre 2024

Infinidat, fournisseur de solutions de stockage d’entreprise, annonce son architecture de déploiement de workflow Retrieval-Augmented Generation (RAG) conçue pour permettre aux entreprises de tirer pleinement profit de l’IA générative (GenAI). Cette technologie améliore considérablement la justesse et la pertinence des modèles d’IA fondés sur des données privées à jour, issues de multiples sources internes de données structurées et non structurées, comme les bases de données des plateformes Infinidat existantes. L’architecture RAG d’Infinidat permet aux entreprises d’utiliser les systèmes de stockage InfiniBox® et InfiniBox™ SSA pour optimiser les résultats générés par les modèles d’IA, sans qu’il faille investir dans du matériel spécialisé. Infinidat apporte également la capacité d’utiliser RAG en environnement multi-cloud hybride, avec InfuzeOS™ Cloud Edition, transformant ainsi l’infrastructure de stockage en un actif stratégique générateur de valeur ajoutée des applications GenAI pour les entreprises.  

 

« Infinidat va jouer un rôle central dans les déploiements RAG grâce à la valorisation des données stockées sur InfiniBox, qui conviennent idéalement aux ressources d’IA d’extraction de données », explique Eric Herzog, directeur marketing d’Infinidat. « Les bases de données vectorielles, incontournables pour accroître la précision des modèles de GenAI, tournent extrêmement bien en environnement de stockage Infinidat. Nos clients peuvent déployer l’architecture RAG sur leur infrastructure de stockage existante et profiter ainsi des avantages de hautes performances du système InfiniBox, de la plus faible latence de l’industrie et de la technologie Neural Cache, assurant ainsi l’obtention rapide de réponses ultra précises de la part des ressources GenAI. »

 

RAG vient augmenter les modèles d’IA grâce à la possibilité d’extraction de données privées pertinentes des bases de données vectorielles d’une entreprise, fournies par Oracle, PostgreSQL, MongoDB ou encore DataStax Enterprise. Ces dernières sont mobilisées lors du process d’inférence IA postérieur à l’entraînement de l’IA. Dans le cadre du framework GenAI, l’architecture RAG permet aux entreprises d’auto-générer des réponses plus justes, éclairées et fiables en réponse aux requêtes des utilisateurs. Un modèle d’apprentissage IA, de type Large Language Model (LLM) ou Small Language Model (SLM), peut ainsi référencer des informations et des connaissances au-delà des données d’entraînement. De ce fait, les modèles peuvent être personnalisés sur la base des informations les plus à jour d’une entreprise, mais cette stratégie évite aussi de devoir réentraîner continuellement les modèles d’IA, ce qui mobilise énormément de ressources.

 

« Infinidat a de bonnes chances de s’imposer comme un acteur central de l’inférence RAG pour les applications d’IA générative », affirme Marc Staimer, Président de Dragon Slayer Consulting. « La technologie RAG (Retrieval-augmented generation) est un choix stratégique à fort potentiel de valeur ajoutée pour un fournisseur de solutions de stockage d’entreprise réputé pour ses hauts niveaux de performance, sa garantie de 100 % de disponibilité, son évolutivité et ses capacités de cyber résilience directement applicables à l’inférence RAG des modèles LLM. L’inférence RAG étant commune à quasiment tous les projets d’IA d’entreprise, c’est l’occasion pour Infinidat de convaincre le marché des entreprises avec son architecture RAG de référence ultra ciblée. »

 

« Infinidat réunit stockage d’entreprise et IA générative via son architecture RAG qui promet d’accroître la précision de l’IA. Il est effectivement très probant d’appliquer la technologie RAG là où les données disponibles pour l’IA sont stockées dans l’infrastructure d’une entreprise. Infinidat illustre ainsi parfaitement la possible propulsion du stockage d’entreprise dans un avenir prometteur optimisé par l’IA », explique Stan Wysocki, Président de Mark III Systems.

 

Optimisation de l’IA au sein même de l’infrastructure de stockage d’entreprise

 

Ce que l’on appelle des « hallucinations de l’IA », ces résultats erronés ou imprécis produits par un modèle d’IA générative, sont un frein connu à l’adoption et au déploiement massif de l’IA dans les entreprises. En effet, une hallucination de l’IA peut présenter des informations inexactes comme des « faits », citer des connaissances inexistantes ou générer de fausses attributions, ce qui porte préjudice à l’efficacité de l’IA et oblige à affiner continuellement les requêtes. Sans architecture RAG, les modèles d’IA se fondent sur d’énormes volumes de données publiquement disponibles sans valoriser suffisamment les données  privées de l’entreprise.

 

Pour régler ce problème majeur de l’IA générative, Infinidat entend mettre son architecture à la disposition des entreprises afin que la technologie RAG s’affine en continu au gré des nouvelles données, contribuant à réduire les hallucinations de l’IA. En œuvrant à accroître la justesse des résultats générés par les modèles d’IA, Infinidat entend aider à concrétiser les promesses de l’IA générative pour les entreprises. La solution Infinidat peut s’appliquer à autant de plateformes InfiniBox que nécessaire et est compatible avec les solutions de stockage de tiers via des protocoles à base de fichiers, comme NFS.

 

Enfin, pour simplifier et accélérer le déploiement de la technologie RAG dans les entreprises, Infinidat propose une intégration avec des fournisseurs cloud, via InfuzeOS™ Cloud Edition pour AWS et Azure, afin que RAG tourne parfaitement en configuration de cloud hybride. Cette démarche vient compléter celle des hyperscalers qui tendent à créer des modèles LLM de très grande échelle pour l’entraînement initial des modèles d’IA. Cette combinaison des modèles d’IA et de la technologie RAG conditionnera à coup sûr l’avenir de l’IA générative.

Pour plus d’informations : www.infinidat.com.

Informations entreprise

URBAN RP
URBAN RP 137 Communiqués de presse En savoir +