开源“大户”谷歌在2016年都有哪些表现?这10个项目最受欢迎
【新智元导读】开源“大户”谷歌在2016年都有哪些表现?这10个项目最受欢迎。你认为 TensorFlow 排第几?
Google近日公布了首份“开源成绩单”(Open Source Report Card),介绍了他们最受欢迎的开源项目,并分享了Google工程师们最喜欢的编程语言。
Google开源项目办公室主管Josh Simmons在博客中写道:开源让Google能够更快速、高效地创造新事物,而无需重新发明轮子,使我们能够专注于解决新问题。我们知道,我们是站在巨人的肩膀上。这就是我们支持开源,并且致力于让Google工程师们更方便地开源他们正在进行的项目的原因。
Google已经开源了900多个项目,超过2000万行代码(所有开源项目地址:https://github.com/google)。Google有许多工程师全职工作于开源项目,更多工程师甚至利用他们20%的时间创建新项目或者贡献他们喜欢的现有项目。
谷歌最受欢迎的十大开源项目
这份开源成绩单分享了Google的开源项目中最受欢迎的10个项目:
-
Android – 用于移动设备的软件栈,包括操作系统、中间件和关键应用。
-
Chromium– 包括Google Chrome浏览器背后的软件Chromium,以及Google Chrome OS设备背后的Chromium操作系统。
-
Angular – Java和Dart的Web应用框架,专注于提高开发人员的生产力,使开发和测试更容易。
-
TensorFlow– 使用数据流图进行数值计算的库,支持从数据中心到嵌入式设备的跨平台机器学习。
-
Go – 一种静态强类型、编译型的编程语言,具有表达性、简洁、干净、高效的特点。
-
Kubernetes – 用于容器集的自动化部署、操作和缩放的系统。
-
Polymer – 基于Web组件API构建的轻量级库,用于在Web应用程序中构建封装的可重复利用元素。
-
Protobuf – 一个可扩展、语言中立以及平台中立的框架,用于结构化数据的序列化。
-
Guava– 包括新的集合类型(例如多图和多集)、不可变集合、图形库、功能类型,内存cache、协同API、I/O、哈希、字符串处理等的一系列Java核心库。
-
Yeoman – 一套强大的脚手架工具,包括库和工作流,可以帮助开发者快速构建漂亮的Web应用程序。
谷歌工程师最常用的语言TOP10
Google工程师们使用的编程语言非常多样,从Assembly到XSLT都有,那么他们最喜欢的编程语言是什么呢?通过统计GitHub上的星标数量,Google公布了他们的工程师最喜欢的十种编程语言:
-
Java
-
Java
-
C/C++
-
Go
-
Python
-
Type
-
Dart
-
PHP
-
Objective-C
-
C#
谷歌八大深度学习开源项目
1. Google第二代深度学习引擎TensorFlow开源
2015年11月,谷歌开源深度学习平台 TensorFlow。2016年4月,谷歌推出了分布式 TensorFlow。现在,TensorFlow 已经成为最受欢迎的深度学习平台之一。
2016年5月13日,Google Research宣布,世界准确度最高的自然语言解析器 SyntaxNet 开源。谷歌开源再进一步。据介绍,谷歌在该平台上训练的模型的语言理解准确率超过90%。SyntaxNet 是一个在TensoFlow中运行的开源神经网络框架,提供自然语言理解系统基础。谷歌公开了所有用用户自己的数据训练新SyntaxNet模型所需要的代码,以及谷歌已经训练好的,可用于分析英语文本的模型 Paesey McParseface。
Paesey McParseface 建立于强大的机器学习算法,可以学会分析句子的语言结构,能解释特定句子中每一个词的功能。此类模型中,Paesey McParseface是世界上最精确的,谷歌希望它能帮助对自动提取信息、翻译和其他自然语言理解(NLU)中的应用感兴趣的研究者和开发者。
3. 谷歌推出 Deep&Wide Learning,开源深度学习 API
2016年6月29日,谷歌研究所推出 Wide & Deep Learning,并将 TensorFlow API 开源,欢迎开发者使用这款最新的工具。同时开源的还有对 Wide & Deep Learning 的实现,作为 TF.Learn 应用程序接口的一部分,让开发者也能自己训练模型。
4. 谷歌开源图像分类工具TF-Slim,定义TensorFlow 复杂模型
2016年8月31日,谷歌宣布开源 TensorFlow 高级软件包 TF-Slim,能使用户快速准确地定义复杂模型,尤其是图像分类任务。自发布以来,TF-Slim 已经得到长足发展,无论是网络层、代价函数,还是评估标准,都增加了很多类型,训练和评估模型也有了很多便利的常规操作手段。这些手段使你在并行读取数据或者在多台机器上部署模型等大规模运行时,不必为细节操心。此外,我们还制作了 TF-Slim 图像模型库,为很多广泛使用的图像分类模型提供了定义以及训练脚本,这些都是使用标准的数据库写就的。TF-Slim 及其组成部分都已经在谷歌内部得到广泛的使用,很多升级也都整合进了 tf.contrib.slim.
5. 谷歌开源大规模数据库,10亿+数据,探索 RNN 极限
2016年9月13日,谷歌宣布开源大规模语言建模模型库,这项名为“探索RNN极限”的研究今年2月发表时就引发激论,如今姗姗来迟的开源更加引人瞩目。研究测试取得了极好的成绩,另外开源的数据库含有大约 10 亿英语单词,词汇有 80 万,大部分是新闻数据。这是典型的产业研究,只有在谷歌这样的大公司才做得出来。这次开源也应该会像作者希望的那样,在机器翻译、语音识别等领域起到推进作用。
6. 谷歌开源 TensorFlow 图说生成模型,可真正理解图像
2016年9月23日,谷歌宣布开源图说生成系统 Show and Tell 最新版在 TensorFlow 上的模型。该系统采用编码器-解码器神经网络架构,分类准确率达 93.9%,在遇到全新的场景时能够生成准确的新图说。谷歌表示,这说明该系统能够真正理解图像。
2016年9月28日,谷歌在官方博客上宣布,将含有800万个Youtube 视频URL 的视频数据库开源,视频总时长达到了50万个小时。一并发布的还有从包含了4800个知识图谱分类数据集中提取的视频级别标签。这一数据库在规模和覆盖的种类上都比现有的视频数据库有显著提升。例如,较为著名的Sports-1M数据库,就只由100万个Youtube 视频和500个运动类目。谷歌官方博客上说,在视频的数量和种类上,Youtube-8M代表的是几乎指数级的增长。
8. 谷歌发布 Open Images 图片数据集,包含900万标注图片
2016年10月1日,继前天发布800万视频数据集之后,今天,谷歌又发布了图片数据库Open Images,包含了900万标注数据,标签种类超过6000种。谷歌在官方博客中写到,这比只拥有1000个分类的ImageNet 更加贴近实际生活。对于想要从零开始训练计算机视觉模型的人来说,这些数据远远足够了。
已有 0 人发表留言,猛击->> 这里<<-参与讨论
ITeye推荐