PyTorch一年增进194%,兼容性更强,逾越TensorFlow指日可待
看样子,PyTorch凌驾TensorFlow指日可待了。
这个结论,来自于如许的数据:
2019年1月到6月尾,在arXiv.org上宣布的论文中,说起TensorFlow和PyTorch的数目相差无几,PyTorch仅稍稍落伍。
但最症结的在于增进速度:与2018年1月到6月比拟,PyTorch增进了194%。比拟之下,TensorFlow的增进幅度仅为23%。
一方面有充足的基数,另一方面又有充足的增速,PyTorch已具有凌驾TensorFlow的能够性。
数据来自于RISELab——隶属于加州大学伯克利分校的研究机构,目的是研发下一代大数据盘算体系。
公布出来以后马上激发网友热议。
与之前差别的是,此次不是“PyTorch真香”现场,主题变成了吐槽TensorFlow。
吐槽TensorFlow现场
在Reddit上的机械进修板块,这一话题已有了200热度,取得80条批评。
个中排名第一的批评就是:
TensorFlow一直让人头疼,所以很愉快看到这么快就采纳PyTorch。
究竟怎样头疼?也有不少网友给出了诠释:
Tensorflow 1.0兼容性差
名为“bunny113”的网友批评称:
从GitHub repo中猎取的Tensorflow 1.0代码,在其他版本上不起作用。
所以,我如今只用PyTorch。我喜好它的动态性,而不是Tensorflow的静态性。
不停变化使人头疼
关于TF,让我头疼的一件事是不停变化。最初你必需重新构建模子,然后涌现了TF.estimator (TF.layers) API,如今TF.keras将成为TF 2.0(以及将 TF.layers 标记为 legacy)中的规范。
也有网友有越发深入的体味:
TensorFlow如今相对是一场灾害。细小的版本增量,就会在我的代码中触发几十个弃用正告。
另外,另有其他林林总总的题目,比方TensorFlow很难调试、控制门坎高等等等等。
吐槽现场链接:
https://www.reddit.com/r/MachineLearning/comments/chx7bq/d_one_simple_graphic_researchers_love_pytorch_and/
Tensorflow的上风的地方
只管有那末多人吐槽,也并不意味着TensorFlow没长处,PyTorch异常圆满。
须要注重的是的,这一数据泉源是arXiv.org提交的预印版论文,群体险些满是研究人员。
有网友提问:
研究人员也能够体贴机能基准测试,有人关注在它们在硬件兼容性和优化,云支撑(谷歌Colab)等方面的表现吗?
当然有,名为”muntoo“网友在批评区中示意:
我运用Tensorflow的主要原因,是Google供应了针对其他平台(比方Android)的集成。
确切,这是Tensorflow的上风,也是PyTorch须要革新的方面。
就在近来,TensorFlow还推出了一个新的图象支解教程,运用的是U-Net作风的架构(和一个预练习的MobileNet),链接地点:
https://www.tensorflow.org/beta/tutorials/images/segmentation
不过,Fast.ai创始人Jeremy Howard在Twitter上示意,由于深度进修是一个异常新的贸易范畴,业界与学界联络异常亲昵。PyTorch在研究人员中的运用大幅增进,也预示着本年会有越来越多的公司采纳PyTorch。
你以为呢?
作者系网易消息·网易号“各有立场”签约作者
版权声明
本文仅代表作者观点,不代表本站立场。如有侵权,请邮件248745074@qq.com删除
本文系作者授权发表,未经许可,不得转载。
本文地址:https://www.ishunhua.com/hlw/12694.html