開始使用 AI/ML 管道
| ![]() |
作為機器學習從業人員,能夠以一種專門針對您的資源、需求和預算的方式有效利用大量資料,通常取決於您的生產力和成功。無論是啟動您的下一個 AI/ML 專案還是升級現有專案,請考慮將 Apache Beam 新增到您的專案中。
使用 Beam ML
我想要使用 Beam ML 來執行
預測和推論
Beam 提供了不同的方式來實作推論作為管道的一部分。您可以直接在管道中執行 ML 模型,並將其應用於大規模資料集,無論是批次處理還是串流管道。
RunInference
RunInfernce API 可用於 Beam Python SDK 2.40.0 及更新版本。您可以將 Apache Beam 與 RunInference API 搭配使用,以使用機器學習 (ML) 模型,透過批次和串流管道執行本機和遠端推論。從 Apache Beam 2.40.0 開始,支援 PyTorch 和 Scikit-learn 架構。Tensorflow 模型透過 tfx-bsl
支援。如需更多關於使用 RunInference 的詳細資訊,請參閱關於 Beam ML。
RunInference API 可透過 Apache Beam 的多語言管道架構用於 Beam Java SDK 2.41.0 及更新版本。如需關於 Java 包裝器轉換的資訊,請參閱RunInference.java。若要試用,請參閱Java Sklearn Mnist 分類範例。
您可以使用 RunInference API 建立多種轉換類型:API 從模型處理常式中取得多種設定參數類型,且參數類型決定模型實作。
任務 | 範例 |
---|---|
我想要使用 RunInference 轉換 | 修改 Python 管道以使用 ML 模型 |
我想要將 RunInference 與 PyTorch 搭配使用 | 將 RunInference 與 PyTorch 搭配使用 |
我想要將 RunInference 與 Sklearn 搭配使用 | 將 RunInference 與 Sklearn 搭配使用 |
我想要使用預先訓練的模型 (PyTorch、Scikit-learn 或 TensorFlow) | 使用預先訓練的模型 |
我想要在生產環境中更新我的模型 | 使用 WatchFilePattern 在 RunInference 中自動更新 ML 模型 |
預測和推論範例
任務 | 範例 |
---|---|
我想要建立具有多個模型的管道 | 多模型管道 |
我想要使用 TensorRT 建立自訂模型處理常式 | 將 TensorRT 與 RunInference 搭配使用 |
我想要使用 LLM 推論 | 大型語言模型推論 |
我想要建立多語言推論管道 | 從 Java SDK 使用 RunInference |
資料處理
您可以透過設定轉換資料並輸出從資料計算的指標的資料管道,使用 Apache Beam 進行資料驗證和預處理。Beam 具有豐富的I/O 連接器集,用於擷取和寫入資料,這讓您可以將其與現有的檔案系統、資料庫或訊息佇列整合。
任務 | 範例 |
---|---|
我想要轉換我的資料以進行預處理 | 使用 MLTransform 預處理資料 |
我想要探索我的資料 | 資料探索工作流程和範例 |
我想要擴充我的資料 | 使用擴充轉換擴充資料 |
工作流程協調
為了自動化和追蹤整個專案的 AI/ML 工作流程,您可以使用協調器,例如Kubeflow 管道 (KFP) 或TensorFlow Extended (TFX)。這些協調器會自動化您的不同建置區塊,並處理它們之間的轉換。
任務 | 範例 |
---|---|
我想要使用 ML-OPS 工作流程協調器 | 工作流程協調 |
我想要將 Beam 與 TensorFlow Extended (TFX) 搭配使用 | Tensorflow Extended (TFX) |
我想要將 Beam 與 Kubeflow 搭配使用 | Kubeflow 管道 (KFP) |
當您將 Apache Beam 用作專案中的其中一個建置區塊時,這些協調器能夠啟動您的 Apache Beam 工作並追蹤管道的輸入和輸出。當您將 AI/ML 解決方案移至生產環境時,這些任務至關重要,因為它們讓您可以隨著時間處理模型和資料,並提高結果的品質和可重現性。
模型訓練
使用案例
任務 | 範例 |
---|---|
我想要建立異常偵測管道 | 異常偵測範例 |
參考
上次更新日期:2024/10/31
您是否找到了您要尋找的所有內容?
這些內容是否有用且清楚?是否有任何您想變更的地方?請告訴我們!