AI 及資料應用

Red Hat AI 全新產品組合,驅動您的企業 AI 未來!

 

Red Hat 全面升級 AI 產品線,涵蓋 Inference Server、Enterprise Linux AI、OpenShift AI。
從高效推論到生成式 AI 模型平台,再到全方位混合雲 AI 解決方案,助您快速部署、靈活擴展,掌握 AI 轉型新動能。

 >>>點擊徵求專業支援 👆👆

Red Hat AI Inference Server 生成式 AI 模型推論

 適合需求:在 RHEL/Linux 或 OpenShift/K8s 上進行生成式 AI 模型推論 

🔺打包方式:Linux 容器

🔺Red Hat vLLM 推論伺服器

🔺經過驗證與最佳化的模型儲存庫

🔺LLM 壓縮器工具:透過模型壓縮技術提升推論速度,同時確保 99% 以上的原始精確度

🔺認證:RHEL/RHEL AI 和 OpenShift/OpenShift AI

🔺第三方支援政策:非紅帽(Non-Red Hat)的 Linux 和 Kubernetes 平台

 

Red Hat Enterprise Linux AI 生成式 AI 模型推論與訓練

 適合需求:用於推論與訓練的整合生成式 AI Linux 伺服器應用裝置 

🔺打包方式:Linux 伺服器應用裝置,內建模型壓縮功能

🔺Granite 系列模型提供技術支援,也可選用自有模型

🔺InstructLab 模型對齊:模擬客戶提供的資料,自動生成大量資料以訓練模型

🔺帶有整合加速器的最佳化 RHEL 映像檔

 

Red Hat OpenShift AI AI 模型推論、訓練與大型語言模型維運 (LLMOps)

 適合需求:用於推論、訓練和大型語言模型維運/機器學習維運 (LLM/MLOps) 的完整分散式 AI 平台 

🔺打包方式:Kubernetes 分散式叢集,內建模型壓縮功能

🔺支援生成式 AI 與預測式 AI

🔺OpenShift Kubernetes 中進行分散式訓練、微調與推論

🔺大型語言模型維運 (LLMOps) 與機器學習維運 (MLOps)/Day 2 維運管理

 

 >>>點擊徵求專業支援 👆👆

 

聯絡 我們