欢迎来到彩票365安全_彩票365ios版_彩票365! 联系我们 网站地图

彩票365安全_彩票365ios版_彩票365

0379-65557469

体育彩票365官网下载
全国服务热线
0379-65557469

电话: 0379-65557469
0379-63930906
0379-63900388 
0379-63253525   
传真: 0379-65557469
地址:洛阳市洛龙区开元大道219号2幢1-2522、2501、2502、2503、2504、2505室 

体育彩票365官网下载

每周精选 610

作者:admin 发布时间:2019-06-17 20:34:34 浏览次数:181
打印 收藏 关闭
字体【
视力保护色

The Past, Present, and Future of AI Art 郭晋雄(AI 艺术的曩昔,现在,与未来)

关于 AI 艺术现在读到最棒的一篇博文,不但重视了当时 AI 艺术的炒作,还回忆了它的老前辈计算机艺术,以及 AI 艺术许多问题是怎每周精选 610么一脉相承过来(前史往往是惊人的相似),所以相对照,待现在的浪潮退去,未来 AI 艺术最大的潜力又在何处。

特别喜爱开端的一段话

the future of AI art lies not so much in its use for “image making” but in its critical potential in the light of an increasingly industrialized use of artificial intelligence.

AI 艺术的未来并不在于“制造图片”,而在于它在 AI 逐步的工业化运用中的巨大潜力。

里边很有意思的当地,当列出人们对五六十年前计算机艺术呈现时的反响,以及现在因深度学习引起的 AI 艺术热潮的反响,真的是惊人的相似。想的问题也都差不多,“这是不是艺术?”,“这样的艺术有没有意思。”

但是,如依照前史开展,那么当时的“AI 艺术”也终将成为咱们手中的便当东西,化为日常。我很赞同这个趋势,这也算是人机互动会呈现的发展,并且现在能看到许多相似运用,比方相似风格搬迁的滤镜,动漫主动上色,图片主动高清,乃至是主动的物理作用烘托...

链接:https://www.skynettoday.com/editorials/ai-art-history


Are Sixteen Heads Really Better than One?(16 头身真的要比 1 头身好吗?Transfor每周精选 610mer 大探究)

随意扯了个 16 头身,没想到真找到了图,仍是大空翼队长,感觉九头身什么都弱爆了。

当然这儿的头和足球没有什么关系,是关于 transformer 的 head(头)。

众所周知,Transformer 的模型越来越大了,从开端6层16头,到现在 BERT-large 24层16头,再到GPT2的48层(12个头?)。往往看到这么大的模型,咱们或许会问,真需求这么大吗?

之前有看 Bert 可视化博客,前一段时间公司实习生也可视化了中文 Bert 模型,发现其实真实风趣的头只在少量,大部分层的头都不知道有什么用,许多如同功用都重复了,所以这儿是否存在冗余呢?

这便是这篇文章要回答的,Transformer 模型是否存在冗余,咱们又该怎么精简它

论文做了许多试验,就捡几条风趣的说:

  1. 照应标题,作者们在论文中有做一组试验,将某一层除了某个头以外的一切头都去掉,成果发现关于有些层来说,只要一个头并没形成太大功能丢失

  2. 在机器翻译模型中,encoder-decoder 的注意力层要比各自的 self-attention 重要;

  3. 各个头的相对重要性,在练习的前期阶段就基本上现已决议了。

还有许多其他发现,能够看论文。

链接:http://arxiv.org/abs/1905.10650


Chinese AI Talent in Six Charts (图说我国 AI 人才)

主要对 NeurlPS 2018 的我国人作者(不过我感觉或许是华人作者)进行剖析。

得出三个定论:

  1. 在最顶尖的 AI 研讨里我国出世的研讨人员只占少量(9%),而在一般高档其他 AI 研讨里,他们就占了大多数 (25%);

  2. 很大一部分我国出世研讨人员进行的高档别研讨都是于美国组织进行的;

  3. 大部分进行高档别研讨的研讨人员都是在美国读的研讨生,并且大多数在结业后都留在了美国。

其实一句话就能总结,我国出世研讨人员大多从事一般高档其他A每周精选 610I研讨,并且大多在美国读完研讨生之后,大多留在了美国组织

这直接阐明晰一点,这也是我在李开复书里看到的,在 AI 学术研讨范畴我国或许仍是远落后于欧美。

链接:https://macropolo.org/china-ai-research-talent-data/


Training a single AI model can emit as much carbon as five cars in their lifetimes (男人看了心酸,女性看了落泪,练习一个模型形成的污染,相当于开坏五辆车!)

无良媒体就喜爱故意烘托危机,特别是还刚好触到了灵敏的“Carbon”。

所以就成了,这群万恶的深度学习炼丹师,天天只知道污染环境,练出一些废物模型,比轿车污染还严峻... 且慢,先别慌,我比你们还急呢?当知道自己从事的作业如此罪恶,不由被自己良知唤醒,泪流一地,决议去悠远的亚马逊维护日渐消失的雨林...

恶作剧,闲话少说,新闻没仔细看,太标题党了,有鼓动的嫌疑。所以直接看的谈论和论文,所以感觉要故意阐明一下咱们不要被标题给误导了。

需求对这个误解进行解说:

  1. 能练习排出这么多二氧化碳的都是 Bert 这样的超大模型,一般人底子玩不了,也没有数据和钱玩,而社群也会监督大公司将这些模型开源出来,供咱们一同运用;

  2. 一些小型模型的话,实际上排出的二氧化碳,或许还没咱们正常日子中运用一些排出的多。要我说首要应该把区块链各种币挖矿给禁掉先,那才是真实的朴实浪费资源。

题外话,一个好玩的视角,把深度学习当作是一个IP,现在发展渐渐变缓,所以就开端出各种深度学习周边了,关于深度学习和心理学,深度学习能量损耗等等。

报导:https://www.technologyreview.com/s/613630/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes

论文链接:https://arxiv.org/abs/1906.02243

Doing a PhD is not worth it unless exception circumstances exist?(一般的 PhD 项目值得读吗?不是尖端高校没发尖端会议,进不了尖端公司)

reddit 的机器学习专区里,PhD or work 真的是个不断被提起的论题,由于许多人都在犹疑,究竟要不要读 PhD,包含我自己现在都还在犹疑ing...

这个贴大约便是一个在 top 校园的某大佬,依据自己经历,发现在沟通和实习过程中,身边的人也都是各个top的大佬,都身怀数篇顶会 Paper,之后也都进入尖端公司。那么问题来了?

假如你 PhD 进的不是尖端校园和试验室,发不了顶会 Paper,不能一出来就进尖端公司,拿高薪,那么 PhD 还值得读吗。

信任这是每个想读 PhD 但没有很强简历的人都会去考虑的,包含我自己。

所幸,下面谈论都很正能量,咱们都举出了各自的比如,表明的确这个现象是存在的,但不但是在这个范畴,许多范畴都存在相似问题,看看华尔街就知道。实际上,也有许多比如即便没有去 Top 也仍是能过得很好,没必要在 这儿发帖秀优越感。

当然还有许多其他精彩评论。

链接:https://www.reddit.com/r/MachineLearning/comments/bwwmh9/d_doing_a_phd_is_not_worth_it_unless_exception/

Has anyone noticed a lot of ML research into facial recognition of Uyghur people lately? (调和调和)

只给链接,懂的人懂,没想到真有人在做这方面,并且还光明磊落发论文。

reddit 上评论很剧烈。

链接:https://www.reddit.com/r/MachineLearning/comments/bvzc7w/d_has_anyone_noticed_a_lot_of_ml_research_into/

为什么Siri没有Alex或许Google Assistant聪明

一个关于智能语音帮手不错的科普视频。

链接:https://www.youtube.com/watch?v=3KNVx1ciN_g

资源

How to draw the model's architecture? (要画模型图了,兄dei我该用哪款软件)

首要是一篇关于画深度学习的东西还有办法的博文:https://medium.com/inbrowserai/simple-diagrams-of-convoluted-neural-networks-39c097d2925b

关于实际运用,有个库能够引荐:https://github.com/waleedka/hiddenlayer

假如想要手画一个的话:能够引荐 Inkspace 或许更硬核一些的 TikZ

此外还有一些引荐的库:

  • https://github.com/lutzroeder/netron

  • https://github.com/HarisIqbal88/PlotNeuralNet

我个人的话,draw.io 用得比较多,有时候要做宣布的话也直接用 PPT.

Computer Science Summarization Dataset(CS 论文大礼包)

当之无愧的大礼包,某热心网友扒了五百六十万篇CS论文的标题和摘要,供咱们没事做个小项目。

链接:https://www.reddit.com/r/MachineLearning/comments/bxwme7/p_computer_science_summarization_dataset/


长按重视大众号


版权所有:洛阳市建设工程咨询有限责任公司 联系人:李经理 电话: 地址:洛阳市洛龙区开元大道219号2幢1-2522、2501、2502、2503、2504、2505室
版权所有 彩票365安全 沪ICP备178379125号-2