作者 | Derrick Mwiti
译者 | Raku
出品 | AI科技大本营(ID:rgznai100)
为了筛选2019年一些令人惊叹的机器学习项目。根据reddit上机器学习类目中的内容,作者盘点了过去一年中最受欢迎的17个机器学习项目、研究论文、demo。希望你能在这个列表中获得一些鼓舞人心的、有教育意义的启发。
· · ·
1、小样本非监督图像转换模型
从人类的能力中获得灵感,从少量的例子中提取新事物的本质,并从中进行归纳,作者寻求的是一种小样本、无监督的图像到图像的转换算法,该算法适用于在测试时仅通过一些示例图像指定的、以前未见过的目标类。
论文链接:
https://arxiv.org/abs/1905.01723
“我们的模型通过将对抗训练方案与新颖的网络设计相结合实现了这一能力。通过对基准数据集上几种基线方法的大量实验验证和比较,我们验证了该框架的有效性。”
相关链接:
https://youtu.be/kgPAqsC8PLM
GitHub链接:
https://github.com/NVlabs/FUNIT
· · ·
2、分解潜空间(latent space)生成自定义动漫少女
作者提出了一种能够绘制动画的人工神经网络。
相关链接:https://waifulabs.com/
The Waifu实验室的自动贩卖机(Vending Machine)允许你选择喜欢的角色,基于此,你可以生成你可能喜欢的动画。
· · ·
3、机器学习最大数据集列表
在这里,作者整理了一个机器学习数据集的列表,可以用于机器学习实验。
相关链接:https://www.datasetlist.com/
这种资源肯定可以减少在线查找数据集所需的工作时间。数据集按各种任务/领域进行细分,包括计算机视觉、自然语言处理、自动驾驶、问答系统、音频和医疗。你还可以按license type排序。
· · ·
4、数据集:480000个NLP烂番茄(Rotten Tomatoes)评价,标记为好/不好
(ps:烂番茄是一个以提供电影、电子游戏及电视节目的相关评论、资讯和新闻为主的网站。)
作者从网上搜罗了烂番茄的评论,这些评论在自然语言处理任务中非常有用。
GitHub链接:
https://github.com/nicolas-gervais/6-607-Algorithms-for-Big-Data-Analysis/blob/master/scraping%20all%20critic%20reviews%20from%20rotten%20tomatoes
该数据集可在Google云端硬盘上找到。
相关链接:
https://drive.google.com/file/d/1N8WCMci_jpDHwCVgSED-B9yts-q9_Bb5/view
· · ·
5、猫的门禁:使用ML创建猫门,当猫嘴里有猎物时会自动锁定
这篇文章是关于一个使用机器学习创建的猫门。
相关链接:
https://youtu.be/1A-Nf3QIJjM
作者制作了一扇猫门,如果猫嘴里有东西,门就会自动锁上15分钟,这使得猫无法把死动物带到房子里。他将摄像机连接到猫门上,然后用机器学习检查猫嘴里是否有东西。
· · ·
6、Neural Point-Based Graphics
作者提出了一种新的基于点的复杂场景建模方法,使用原始点云作为场景的几何表示。
在本文中,研究者提出了一种新的基于点的复杂场景建模方法。该方法使用原始点云作为场景的几何表征,并且利用能够编码局部几何结构和外观的可学习神经描述符来增大每个点。
相关链接:
https://youtu.be/7s3BYGok7wU
深度渲染网络与描述符同时进行学习,这样从新视点将点云的光栅部分穿过这个网络,从而获得场景的新视图。研究表明,这种新方法可用于建模复杂场景、得到这些场景的逼真视图,同时能够避免显式表面估计和网格化。具体来讲,使用手持商用 RGB-D 传感器和标准 RGB 摄像头可以在场景扫描任务中获得令人信服的结果。
论文链接:
https://arxiv.org/abs/1906.08240
· · ·
7、AdaBound
AdaBound是一个优化器,旨在看不见的数据上有更快的训练速度和性能。它的训练速度和Adam一样快,和SGD一样好(ICLR 2019),有一个现成的PyTorch实现。其提出者是来自中国高校的大四学生。
GitHub链接:
https://github.com/Luolc/AdaBound
在模型训练开始时,AdaBound的行为类似于Adam,并在结束时转换为SGD。
相关链接:https://www.luolc.com/publications/adabound/
· · ·
8、Pluribus:首个在6人扑克中击败职业玩家的AI
来自Facebook Research上的帖子:“ Pluribus是第一款能够以六人无限注德州扑克打败人类专家的AI机器人,德州扑克是世界上使用最广泛的扑克形式。而且,这是AI机器人第一次在超过两个或两个团队的复杂游戏中击败顶级人类玩家。
“ Pluribus之所以成功,是因为它可以非常有效地处理具有隐藏信息的两名以上玩家的游戏挑战,它使用自我玩法来教自己如何取胜,没有任何示例或策略指导。”
相关链接:https://ai.facebook.com/blog/pluribus-first-ai-to-beat-pros-in-6-player-poker/
· · ·
9、各种ML模型的NumPy实现
numpy-ml是越来越多的专门用NumPy和Python标准库编写的机器学习模型、算法和工具的集合。”
GitHub链接:
https://github.com/ddbourgin/numpy-ml
下面给出模型的可用代码链接:
https://github.com/ddbourgin/numpy-ml/blob/master/numpy_ml/README.md
· · ·
10、17种Deep RL算法的PyTorch实现
作者策划了17种深度强化学习算法的PyTorch实现。
GitHub链接:https://github.com/p-christ/Deep-Reinforcement-Learning-Algorithms-with-PyTorch
其中的一些实现包括DQN,DQN-HER,Double DQN,REINFORCE,DDPG,DDPG-HER,PPO,SAC,离散SAC,A3C,A2C。
· · ·
11、100万可供下载的AI生成假脸
作者使用NVIDIA的StyleGAN生成了100万张面孔。
相关链接:
https://archive.org/details/1mFakeFaces
如你所见,这些图像看起来与真实人物完全一样。
链接:
https://youtu.be/_kk4Zv1ysgU
· · ·
12、教神经网络驾驶赛车
教神经网络驾驶赛车。这是一个简单的网络,具有固定数量的隐藏节点(没有NEAT),并且没有偏差。然而,经过短短几代人的努力,它成功地使汽车快速、安全地行驶。
相关链接:
https://youtu.be/wL7tSgUpy8w
“人口为650,该网络通过随机突变发展,拟合评估目前是手动完成的。”
· · ·
13、m2cgen:一个简单的库,将ML模型转换为本地代码(Python / C / Java)
m2cgen(模型2代码生成器)—是一个轻量级的库,它提供了一种简便的方法来将经过训练的统计模型转换为本地代码(Python,C,Java,Go,JavaScript,Visual Basic,C#)。”
GitHub链接:
https://github.com/BayesWitnesses/m2cgen/
当前支持的模型如下:
· · ·
14、探索神经网络的损失情况
摘自作者的帖子:“该帖子是关于在神经网络的损失面中找到不同的模式。通常,围绕最小值的场景看起来像是一个坑,周围是随机的丘陵和山脉,但是存在着更有意义的坑,如下图所示。
GitHub链接:
https://github.com/universome/loss-patterns
“我们发现你几乎可以找到自己喜欢的任何landscape的最小值。有趣的是,找到的横向模式即使对于测试集也仍然有效,即,它具有一种很可能对于整个数据分布仍然有效的属性。”
论文链接:
https://arxiv.org/abs/1910.03867
· · ·
15、基于GPT-2的Reddit Bot
作者构建了一个由OpenAI的GPT-2驱动的Reddit机器人。
GitHub链接:
https://github.com/openai/gpt-2
可以通过回复任何带有“ gpt-2完成此操作”的评论来使用该机器人。
GitHub链接:
https://github.com/shevisjohnson/gpt-2_bot
· · ·
16、Super SloMo:一个可以将任何视频转换为慢动作视频的CNN
作者在PyTorch中实现了论文:
https://people.cs.umass.edu/~hzjiang/projects/superslomo/
GitHub链接:
https://github.com/avinashpaliwal/Super-SloMo
· · ·
17、NLP的预训练模型库:Bert,GPT,GPT-2,Transformer-XL,XLNet,XLM
这是用于NLP的预训练transformer模型的开源库。它具有六种架构:
Google’s BERT
OpenAI’s GPT & GPT-2
Google/CMU’s Transformer-XL & XLNet
Facebook’s XLM
GitHub链接:
https://github.com/huggingface/transformers
该库为这些架构提供了27种预训练的模型权重。
原文链接:
https://heartbeat.fritz.ai/best-of-machine-learning-in-2019-reddit-edition-5fbb676a808
(*本文为AI科技大本营整理文章,转载请微信联系 1092722531)
◆
精彩公开课
◆
推荐阅读
大四学生发明文言文编程语言,设计思路清奇
芬兰开放“线上AI速成班”课程,全球网民均可免费观看
腾讯 Angel 升级:加入图算法,支持十亿节点、千亿边规模!
解读 | 2019年10篇计算机视觉精选论文(上)
高通:2 亿像素手机 2020 年诞生!
英特尔首推异构编程神器 oneAPI,可让程序员少加班!
VS Code 成主宰、Vue 备受热捧!2019 前端开发趋势必读
我在华为做外包的真实经历
2019 区块链大事记 | Libra 横空出世,莱特币减产,美国放行 Bakkt……这一年太精彩!
互联网诞生记: 浪成于微澜之间
你点的每个“在看”,我都认真当成了AI