Red Hat AI est à la pointe de la technologie transparente et durable dans un contexte de mutations mondiales de l'IA. Les tensions géopolitiques redéfinissent la manière dont les entreprises développent et utilisent l'intelligence artificielle. Les grands modèles de langage fermés sont scrutés en raison de la confidentialité des données et de leurs coûts élevés. Red Hat défend des alternatives open source comme les petits modèles de langage (SLM) pour des gains concrets. Lors d'une récente discussion, Julio Guijarro, CTO EMEA de Red Hat, explique comment Red Hat AI libère la puissance génératrice de manière responsable. Les entreprises gagnent en valeur sans prendre de risques. Cette approche s'inscrit dans la philosophie communautaire de Red Hat, qui rend l'IA accessible et fiable pour tous.
Red Hat AI défend les petits modèles pour l'entreprise Edge

Red Hat AI s'attaque de front aux inconnues de l'IA. Nombreux sont ceux qui la considèrent comme une boîte noire en raison de la complexité de ses mathématiques et de son développement fermé. Des lacunes en matière de formation persistent, notamment pour les langues mal desservies comme l'arabe et le portugais. Des inquiétudes se font jour quant à la souveraineté des données : les entreprises protègent les informations sensibles des clouds publics avec des politiques laxistes.
Guijarro met en avant les SLM comme la solution. Ces modèles compacts fonctionnent localement ou en configuration hybride sur du matériel courant. Ils exploitent des données métier spécifiques pour obtenir des résultats actualisés et pertinents. Finis les sorties obsolètes provenant de clouds distants.
L'IA de Red Hat optimise les modèles ouverts pour réduire les coûts. Les LLM augmentent les frais par requête : les demandes simples se transforment en conversations coûteuses. Les SLM sur site limitent les dépenses au niveau de l'infrastructure. La latence diminue également, ce qui est essentiel pour le service client. La confiance se construit grâce à l'ouverture : chacun ajuste, réplique ou déploie les modèles.
Lisez aussi: Test de BigSpy : votre guide ultime pour maîtriser les campagnes publicitaires TikTok
Les récentes avancées enrichissent la boîte à outils de Red Hat AI :
- Acquisition de magie neuronale: Accélère l'inférence, fait évoluer l'IA sur un équipement standard, se connecte à vLLM pour un service efficace.
- Version d'InstructLab:Avec IBM Research, permet aux non-experts de créer de l'IA en utilisant le savoir-faire commercial.
- Prise en charge vLLM: Normalise les interactions entre les périphériques, les locaux ou le cloud pour une utilisation transparente.
- Optimisation matérielle:Supprime les données inutiles des modèles, s'exécute sur des configurations non GPU pour une ubiquité.
Red Hat AI envisage un avenir démocratisé. Aucun investissement colossal en GPU n'est nécessaire. Se concentrer sur les ajustements des cas d'usage rend l'IA viable dans le monde entier. Comme le dit Matt Hicks, PDG : « L'avenir de l'IA est ouvert. » Les entreprises adoptent Red Hat AI pour réduire les risques, optimiser leur efficacité et respecter l'éthique.
Plus d'actualités à lire : Les mises à jour de la recherche Google apportent une section de réalisations passionnantes
La dernière mise à jour de Google perturbe les outils de suivi tiers