部落格
2019/04/19
Apache Beam 正在申請參與 Season of Docs 計畫
Apache Beam 社群很高興宣布其申請參與 2019 年第一屆 Season of Docs!

Season of Docs 是一個獨特的計畫,它將技術寫作者與開源導師配對,以對開源做出貢獻。這創造了一個機會,向技術寫作者介紹開源社群,並在寫作者從事真實開源專案時提供指導。我們在 Apache Beam 社群中,很樂意把握這個機會,邀請技術寫作者與我們合作,並以多種方式幫助我們改進文件。
Apache Beam 確實有優秀的技術寫作者提供幫助,但專案的文件需求往往超出他們的能力範圍。這就是為什麼我們對這個計畫感到興奮的原因。
在社群中討論想法之後,我們已經能夠找到導師,並構建兩個我們認為非常適合即將到來的技術寫作者處理的想法。我們希望您會發現這個機會很有趣,如果您有興趣,請透過發送電子郵件至 Apache Beam 郵件列表 dev@beam.apache.org 與我們聯繫(您需要先發送電子郵件至 dev-subscribe@beam.apache.org 進行訂閱)。
Apache Beam 中可用的專案想法如下所述。請查看並提出您可能有的任何問題。我們非常樂意幫助您開始使用該專案。
專案想法
部署 Flink 和 Spark 叢集以與可攜式 Beam 一起使用
Apache Beam 的願景一直是為使用者提供一個框架,讓他們可以使用他們選擇的程式語言和他們選擇的執行器編寫和執行管線。隨著 Beam 的現實朝著這個願景發展,Beam 在 Apache Spark 和 Apache Flink 等執行器之上運作的方式也發生了變化。
這些變更已記錄在 Wiki 和設計文件中,並且 Beam 貢獻者可以存取;但它們並未在使用者面向的文件中提供。這一直是 Beam 其他使用者的採用障礙。
此專案涉及改進 Flink 執行器頁面,以包含在幾個不同環境中部署 Beam 的策略:Kubernetes 叢集、Google Cloud Dataproc 叢集和 AWS EMR 叢集。在文件中還有其他地方應該在這方面進行更新,例如 Python 串流 部分和支援的功能集。
在處理完 Flink 執行器後,應對 Spark 執行器頁面和入門文件進行類似的更新。
執行器比較頁面 / 功能矩陣更新
Beam 維護一個 功能矩陣,以追蹤哪些 Beam 功能受到哪些語言 SDK + 執行器的支援。此專案涉及多個 對功能矩陣的更正和改進;然後進行一些較大的變更,包括
- 每個執行器對 Beam 模型支援的簡單英文摘要。
- 每個執行器生產就緒程度的段落長度描述。
- 執行器之間非模型差異的比較。
- 每個執行器對可移植性框架支援的比較。
感謝您,我們期待收到您的來信!