Red Hat 全面升級 AI 產品線,涵蓋 Inference Server、Enterprise Linux AI、OpenShift AI。
從高效推論到生成式 AI 模型平台,再到全方位混合雲 AI 解決方案,助您快速部署、靈活擴展,掌握 AI 轉型新動能。
🔺打包方式:Linux 容器
🔺Red Hat vLLM 推論伺服器
🔺經過驗證與最佳化的模型儲存庫
🔺LLM 壓縮器工具:透過模型壓縮技術提升推論速度,同時確保 99% 以上的原始精確度
🔺認證:RHEL/RHEL AI 和 OpenShift/OpenShift AI
🔺第三方支援政策:非紅帽(Non-Red Hat)的 Linux 和 Kubernetes 平台
🔺打包方式:Linux 伺服器應用裝置,內建模型壓縮功能
🔺Granite 系列模型提供技術支援,也可選用自有模型
🔺InstructLab 模型對齊:模擬客戶提供的資料,自動生成大量資料以訓練模型
🔺帶有整合加速器的最佳化 RHEL 映像檔
🔺打包方式:Kubernetes 分散式叢集,內建模型壓縮功能
🔺支援生成式 AI 與預測式 AI
🔺在 OpenShift Kubernetes 中進行分散式訓練、微調與推論
🔺大型語言模型維運 (LLMOps) 與機器學習維運 (MLOps)/Day 2 維運管理