Red Hat AI ist im globalen KI-Umbruch führend bei der Entwicklung transparenter, nachhaltiger Technologien. Geopolitische Spannungen verändern die Art und Weise, wie Unternehmen künstliche Intelligenz entwickeln und nutzen. Geschlossene große Sprachmodelle stehen hinsichtlich Datenschutz und hohen Kosten unter Druck. Red Hat setzt sich für Open-Source-Alternativen wie kleine Sprachmodelle (SLMs) ein, um praktische Erfolge zu erzielen. In einem aktuellen Chat erläuterte Julio Guijarro, CTO von Red Hat für EMEA, wie Red Hat AI produktive Kraft verantwortungsvoll freisetzt. Unternehmen profitieren von Mehrwert ohne Blackbox-Risiken. Dieser Ansatz entspricht dem Community-orientierten Ethos von Red Hat, KI für alle zugänglich und vertrauenswürdig zu machen.
Red Hat AI fördert kleine Modelle für Enterprise Edge

Red Hat AI geht die Unbekannten der KI direkt an. Viele betrachten KI aufgrund komplexer Mathematik und geschlossener Entwicklung als Blackbox. Es bestehen weiterhin Bildungslücken, insbesondere bei unterversorgten Sprachen wie Arabisch und Portugiesisch. Bedenken hinsichtlich der Datenhoheit bestehen – Unternehmen schützen sensible Informationen vor öffentlichen Clouds mit laxen Richtlinien.
Guijarro propagiert SLMs als Lösung. Diese kompakten Modelle laufen lokal oder in Hybrid-Setups auf handelsüblicher Hardware. Sie nutzen geschäftsspezifische Daten für aktuelle, relevante Ergebnisse. Keine veralteten Ergebnisse mehr aus entfernten Clouds.
Red Hat AI optimiert offene Modelle, um Kosten zu senken. LLMs verursachen Gebühren pro Anfrage – einfache Anfragen werden zu teuren Chats. On-Premise-SLMs begrenzen die Ausgaben auf Infrastrukturebene. Auch die Latenz sinkt, was für den Kundenservice entscheidend ist. Vertrauen entsteht durch Offenheit: Jeder kann Modelle optimieren, replizieren oder bereitstellen.
Relevante Artikeln: BigSpy-Rezension: Ihr ultimativer Leitfaden zur Beherrschung von TikTok-Werbekampagnen
Jüngste Schritte erweitern das Toolkit von Red Hat AI:
- Neurale Magie-Akquisition: Beschleunigt die Inferenz, skaliert KI auf Standardausrüstung, bindet sich für effizientes Serving in vLLM ein.
- InstructLab-Version: Mit IBM Research können auch Nicht-Experten mithilfe von Geschäfts-Know-how KI entwickeln.
- vLLM-Unterstützung: Standardisiert Interaktionen über Edge, lokal oder in der Cloud für eine nahtlose Nutzung.
- Hardware-Optimierung: Entfernt nicht benötigte Daten aus Modellen, läuft auf Nicht-GPU-Setups für Allgegenwärtigkeit.
Red Hat AI strebt eine demokratische Zukunft an. Keine riesigen GPU-Käufe nötig. Der Fokus auf Anwendungsfalloptimierungen macht KI weltweit nutzbar. CEO Matt Hicks sagt: „Die Zukunft der KI ist offen.“ Unternehmen nutzen Red Hat AI, um Risiken zu reduzieren, die Effizienz zu steigern und ethische Grundsätze einzuhalten.
Weitere Neuigkeiten zum Lesen: Google-Suchupdates bringen spannende Erfolge
Das neueste Update von Google unterbricht Tracking-Tools von Drittanbietern