日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給蔣寶尚
發(fā)送

0

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

本文作者: 蔣寶尚 2020-02-06 17:54
導(dǎo)語:各種改進(jìn),提高用戶體驗。

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

機器學(xué)習(xí)算法部署平臺Cortex宣布推出 Cortex V0.13 。

據(jù)介紹,這次的Cortex v0.13支持了所有的主要機器學(xué)習(xí)框架。

Cortex作為一款為生產(chǎn)Web服務(wù)的工具,能夠和AWS服務(wù)結(jié)合起來,重點解決jupyter notebook到生產(chǎn)的缺乏基礎(chǔ)框架的問題。

當(dāng)前的TensorFlow,PyTorch或者其他機器學(xué)習(xí)框架需要的技能與處理Docker、Kubernetes、NVIDIA驅(qū)動程序的技能并不兼容。也就是說機器學(xué)習(xí)模型從筆記本遷移到云上面可能需要花費數(shù)周的時間。

這種延遲往往導(dǎo)致大量的計算資源產(chǎn)生浪費,并且用戶體驗有很高的提升空間。而Cortex v0.13提供了大量新特性,提升了使用體驗,能夠更方便快捷地將機器學(xué)習(xí)模型預(yù)測作為網(wǎng)絡(luò)服務(wù)部署到生產(chǎn)流程中。

具體而言,此次的Cortex v0.13改進(jìn)了自動擴展、多框架支持、CPU/GPU支持、預(yù)測監(jiān)測、最小化的聲明式配置、滾動更新、日志流等功能。

自動擴展:Cortex能夠自動調(diào)整API,已處理生產(chǎn)環(huán)境下的工作負(fù)載,避免高延遲,減少AWS賬單;

多框架支持:Cortex廣泛支持TensorFlow,Keras, PyTorch, Scikit-learn, XGBoost的多個機器學(xué)習(xí)框架;

CPU/GPU支持:Cortex可在CPU或GPU基礎(chǔ)設(shè)施上運行推理任務(wù);

滾動更新:直接將更新應(yīng)用在API上,輕松將Web服務(wù)過渡到新模型,不會產(chǎn)生延遲;

日志流:可以Cortex中實時查看日志,從而幫助簡化流程;預(yù)測監(jiān)測:可檢測網(wǎng)絡(luò)量度,并追蹤預(yù)測結(jié)果;

Spot 實例:能夠享受最高的折扣;

最小化配置:部署配置僅由一個cortex.yaml文件定義。

總的來說,整個Cortex采用TensorFlow,Kubernetes和Docker等開源工具,并將它們與CloudWatch等AWS服務(wù)相結(jié)合,能夠為開發(fā)人員提供了一個API來部署其模型;然后,將模型集裝箱化,然后將其部署到幕后的Kubernetes上,Cortex會自動擴展工作量,如果計算量很大,可以切換到GPU。

開源Github,手把手教你如何配置

目前,創(chuàng)始人也公布了Github地址,給出了大量的運行示例,包括,TensorFlow、PyTorch、XGBoost、scikit-learn。

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

雷鋒網(wǎng)截圖

github地址:https://github.com/cortexlabs/cortex/tree/0.12/examples

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?如上所示,在TensorFlow的分類中,給出了鳶尾花分類、文本生成、情緒分析、圖像分類等例子;PyTorch的例子包括,閱讀理解、語言生成、圖像分類等等。


機器學(xué)習(xí)神器?網(wǎng)友評論褒貶不一!

Cortex的更新,其創(chuàng)始人也在Reddit 論壇上更新了通知。在Reddit帖子下面,網(wǎng)友也發(fā)表了評論:有人認(rèn)為能夠加速機器學(xué)習(xí)模型的訓(xùn)練,也有認(rèn)為在支持功能上還有待改進(jìn)。

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

雷鋒網(wǎng)截圖

為啥要將Cortex和AWS綁在一塊?為啥不支持 所有的k8s集群?為啥不能通過運行Minikube在本地測試Cortex?——來自網(wǎng)友的靈魂三連問

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

雷鋒網(wǎng)截圖

目前也在Google Cloud中,他們提供ML預(yù)測服務(wù),但是他們都不使用容器,我認(rèn)為這是一大優(yōu)勢。最后,你對最新版的Cortex有何評論,在文末給我們留言吧~


參考鏈接:https://towardsdatascience.com/cortex-v0-13-bba9b9b59131

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

模型web遷移延時太長,機器學(xué)習(xí)神器Cortex 能一鍵解決嗎?

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說