彩神app注册平台2019五大顶尖数据科学GitHub项目和Reddit热帖

  • 时间:
  • 浏览:51
  • 来源:5分时时彩-5分时时彩官方

 

没哪些比GitHub和Reddit更适合数据科学了。

GitHub是托管代码的***一站式平台,它擅长于繁杂团队成员之间的合作协议协议过程。 多数领先的数据科学家和组织使用GitHub来开源让彩神app注册平台我们都的库和框架。假如,让我们都不仅也能及时了解领域的***发展,还可不时要在每每每各自 的机器上克隆好友模型。

Reddit的讨论与该频谱的目的相同,领先的研究人员和才华横溢的人才聚集在一起,讨论和推断机器学习和数据科学的***主题和突破。

从这原来平台中,让我们都可不时要学习什么都有东西。本文介绍了2019年以来***的开源GitHub库和Reddit讨论。

GitHub项目

1. Flair (***进的NLP库)

(https://github.com/zalandoresearch/flair)

2018年是自然语言除理(NLP)的分水岭。像ELMo和谷歌的BERT原来的库假如突破性的版本。正如Sebastian Ruder所说,“NLP的ImageNet时刻假如到来”!

Flair是原来优秀的NLP库,易于理解和实现。它***的次而是 哪些?它非常先进。

Flair由Zalando Research基于PyTorch开发并开源。该库在广泛的NLP任彩神app注册平台务上优于以前的法子:

这里,F1是准确度评估指标。

2. face.evoLVe – 高性能人脸识别库

(https://github.com/ZhaoJ9014/face.evoLVe.PyTorch)

现在的数据科学领域,应用于计算机视觉的面部识别算法无处不在 。

face.evoLVe是原来基于PyTorch的“高性能人脸识别库”。它为面部相关分析和应用守护进程提供全面的功能,包括:

· 面部对齐(检测、地标定位、仿射变换)

· 数据预除理(累似 ,扩充、数据平衡、规范化)

· 各种骨干(累似 ,ResNet、DenseNet、LightCNN、MobileNet等)

· 各种损失(累似 ,Softmax、Center、SphereFace、AmSoftmax、Triplet等)

· 提高性能的一系列技巧(累似 ,培训改进、模型调整、知识蒸馏等)。

该库是实际使用和部署高性能深度1识别的必备工具,尤其适用于研究人员和工程师。

3. YOLOv3

(https://github.com/wizyoung/YOLOv3彩神app注册平台_TensorFlow)

YOLO是用于执行对象检测任务的极其快速且准确的框架。它是在三年前推出的,假如从那以前经历了哪2个迭代,每次都比上一次更加精良。

此存储库是在TensorFlow中实现的YOLOv3的完整篇 管道,可不时要在数据集上使用,以训练和评估每每每各自 的对象检测模型。以下是此存储库的主要亮点:

· 高效的tf.data管道

· 重量转换器

· 极快的GPU非极大值抑制(Non Maximum Suppression)

· 完整篇 的培训渠道

· 通过K-means算法选用先前的锚箱

4. FaceBoxes: 高准确度的 CPU实时人脸检测器

(https://github.com/zisianw/FaceBoxes.PyTorch)

计算机视觉中***的挑战之一是管理计算资源。并一定会每每每每各自 一定会多个GPU。 这是原来很难克服的障碍。

加强FaceBoxes。这是一种新颖的人脸检测法子,使用CPU在传输速率和准确度方面都表现出了令人印象深刻的性能。

该存储库在FaceBoxes的PyTorch中运行。它含有安装、训练和评估人脸检测模型的代码。过多再说再抱怨不足计算能力——今天就试试FaceBoxes吧!

5. Transformer-XL from Google AI

(https://github.com/kimiyoung/transformer-xl)

这是原来改变游戏规则的NLP框架。都看其有Google AI团队的支持假如足为奇(让我们都也是哪些提出BERT的人)。

长距离依赖性三个小 劲是NLP方面的棘手问题。即使去年取得了重大进展,但已经 概念还那末得到很好的除理。使用了RNN和Vanilla变压器,但它们还不足好。Google AI的Transformer-XL假如填补了已经 空白。以下是关于已经 库的已经 要点:

· Transformer-XL也能学习长距离依赖性,比RNN长约400%,比Vanilla Transformer长4400%。

· 即使在计算方面,Transformer-XL也比Vanilla Transformer快14000倍!

· 假如长期依赖性建模,Transformer-XL在长序列中具有更好的混淆性能(在预测样本时更准确)。

此存储库含有TensorFlow和PyTorch中Transformer-XL的代码。看看你是否是可不时要匹配(甚至击败)NLP中***进的结果!

Reddit 热帖

1. 数据科学家是新型业务分析师

(https://www.reddit.com/r/datascience/comments/aj6ohk/data_scientist_is_the_new_business_analyst/)

过多再说被标题中的热门话题所迷惑。这是对数据科学当前情况报告及其在世界各地的教学法子的认真讨论。

在不同的数据科学角色上选用特定标签三个小 劲很困难的。功能和任务各不相同——那末谁应该准确地学习哪些?该主题探讨教育机构彩神app注册平台怎么仅含有基本概念并声称教授数据科学。

对于所有发生初级学习阶段的人——请务必浏览此讨论。你将了解到什么都有关于招聘人员怎么看待持有认证或学位的潜在候选人声称让我们都是数据科学家已经 事件。

当然,你将了解商业分析师的工作内容,以及与数据科学家的不同之处。

2. 数据科学中哪些东西让我大吃一惊

(https://www.reddit.com/r/datascience/comments/aczhjc/what_is_something_in_ds_that_has_blown_your_mind/)

数据科学让我感到惊叹的的一件事是哪些?

在已经 讨论主题含有什么都有不可思议的理论和事实会让我参与其中。以下是来自该帖子的哪2个很酷的答案:

“世界上有哪2个地方可不时要用众所周知的分布来建模。什么都有事物一定会正太分布的已经 事实让我 其实让我们都正发生模拟中。“

“***件引起我注意并推动我从事数据科学事业的事情是美联航每年通过改变用于制作飞行杂志的纸张类型来节省170,000的燃料。”

3. ***数据科学家在职业生涯早期致力于除理的问题

(https://www.reddit.com/r/MachineLearning/comments/afl3t1/d_machine_learning_people_what_are_some_things/)

大多数数据科学家很选用地说,让我们都在最初的日子里很难理解已经 概念。甚至像估算缺失值那样简单的事情也会成为挫折中的艰苦工作。

已经 主题是所有数据科学爱好者的金矿。它由经验丰厚的数据科学家组成,让我们都分享了每每每各自 怎么设法学习或了解最初难以掌握的概念。其中已经 甚至假如对你来说没熟悉:

· “最难的次而是 学习不累似 型的输入特征(DNN,RNN,CNN)怎么工作。 让我 我花了至少20个小时来选用RNN的输入特征。“

· “每次一定会,现在仍然充满挑战,假如在系统上设置开发环境。安装CUDA,Tensorflow,PyCharm。 哪些日子让我们都说令人恐惧和绝望。“

· “配置TensorFlow以使用我的GPU也能运作,这时要数小时的谷歌搜索和反复试验。”

4. 为哪些深度1学习网络可不时要得到很好的推广

(https://www.reddit.com/r/MachineLearning/comments/abj1mc/d_notes_on_why_deep_neural_networks_are_able_to/)

神经网络长期以来三个小 劲有“黑匣子”的声誉(它不再是真的了)。当概念扩展到深度1神经网络(DNN)时,事情变得更加混乱。哪些DNN是已经 ***技术成果的核心,假如了解它们的工作原理至关重要。

已经 主题中讨论的原来关键问题是神经网络怎么深入推广。假如你有同样的想法,但对此那末答案——准备好大吃一惊吧!

该主题包括深度1学习专家提出的观点。含有了小量的链接和资源,以深入探讨该主题。但请注意,对神经网络的基本了解将助于你更多地参与讨论。

5. AMA 和 DeepMind的 AlphaStar 团队

(https://www.reddit.com/r/MachineLearning/comments/ajgzoc/we_are_oriol_vinyals_and_david_silver_from/)

当AlphaGo创作击败围棋冠军李世石时,谷歌的DeepMind震惊世界。让我们都又一次席卷而来!

其***的算法AlphaStar在流行游戏的星际争霸2中受过训练。AlphaStar强调将两位星际争霸球员放进一边,以10-1的优势赢得胜利。

已经 Reddit讨论主题是由原来DeepMind AlphaStar的创建者主持的AMA(Ask Me Anything)。让我们都与Reddit社区讨论了各种各样的主题,解释了算法怎么工作,使用了哪2个训练数据,硬件设置是哪些样的,等等。

已经 讨论含有原来有趣的问题:

“为了达到目前的水平,时要玩哪2个场比赛? 假如换句话说:以你为例,有哪2个游戏是时要长达400年的学习?“

“尝试了哪些已经 法子?我知道让我们都对是否是会涉及任何树搜索、深度1环境模型或分层RL技术感到非常好奇,它们似乎一定会可行;假如尝试过,让我们都中的任何原来都取得了可观的进展吗?”

彩神app注册平台【编辑推荐】

【责任编辑:

张燕妮

TEL:(010)684764006】



点赞 0