預測與推論
Beam 提供不同的方式來實作推論作為您管道的一部分。 您可以直接在管道中執行 ML 模型,並將其應用於大規模資料集,無論是批次處理管道還是串流管道。
使用 RunInference API
| ![]() |
RunInference API 可用於 Beam Python SDK 2.40.0 和更新版本。您可以將 Apache Beam 與 RunInference API 搭配使用,利用機器學習 (ML) 模型對批次和串流管道執行本機和遠端推論。從 Apache Beam 2.40.0 開始,支援 PyTorch 和 Scikit-learn 框架。Tensorflow 模型透過 tfx-bsl
支援。有關搭配 Python 使用 RunInference 的更多詳細資訊,請參閱關於 Beam ML。
RunInference API 可透過 Apache Beam 的多語言管道框架用於 Beam Java SDK 2.41.0 和更新版本。有關 Java 包裝轉換的資訊,請參閱RunInference.java。若要試用,請參閱Java Sklearn Mnist 分類範例。
您可以使用 RunInference API 建立多種轉換類型:API 從模型處理器中取得多種設定參數類型,而參數類型會決定模型實作。
任務 | 範例 |
---|---|
我想要使用 RunInference 轉換 | 修改 Python 管道以使用 ML 模型 |
我想要搭配 PyTorch 使用 RunInference | 搭配 PyTorch 使用 RunInference |
我想要搭配 Sklearn 使用 RunInference | 搭配 Sklearn 使用 RunInference |
我想要使用預先訓練的模型 (PyTorch、Scikit-learn 或 TensorFlow) | 使用預先訓練的模型 |
使用案例
任務 | 範例 |
---|---|
我想要建置具有多個模型的管道 | 多模型管道 |
我想要使用 TensorRT 建置自訂模型處理器 | 搭配 RunInference 使用 TensorRT |
我想要使用 LLM 推論 | 大型語言模型推論 |
上次更新於 2024/10/31
您找到您要的所有內容了嗎?
所有內容都實用且清楚嗎? 您有任何想要變更的內容嗎? 請告訴我們!