Spark 团队推出19美元的物联网开发套件Spark Photon

标签: Gadgets TC Spark 物联网 | 发表时间:2014-11-15 11:52 | 作者:John Biggs
出处:http://techcrunch.cn
screen-shot-2014-11-13-at-9-23-01-am

原先的物联网开发套件 Spark CoreKickstarter上红极一时,但它有一个致命的缺点:你必须是一名彻头彻尾的电子极客才能弄明白怎么玩这东西。不过现在,有了 Spark Photon,门槛就没那么苛刻了。

Photon 和 原先的Core 十分类似,只不过速度稍微更快一些,而且更加紧凑。使用方法为:将传感器或马达与核心连接起来,然后通过简单的编程界面与之交互。他们的目标是让业余爱好者、艺术家和工匠们的活儿变得更加简单, 19美元可能真的很难买到这样的东西了。

等到销量达到1万件后,该团队就会举办生产线参观活动——非常聪明的营销手段。如果说新元件和原来的Core 有什么相同点的话,那就是在等待未来的无线机器人末日来临前,这两个有趣的小东西都值得你折腾一番。

翻译:顾秋实

The $19 Spark Photon Can Turn Anything Into A Web-Connected Whatsit

相关 [spark 团队 推出] 推荐:

Spark 团队推出19美元的物联网开发套件Spark Photon

- - TechCrunch 中国
原先的物联网开发套件 Spark Core 在 Kickstarter上红极一时,但它有一个致命的缺点:你必须是一名彻头彻尾的电子极客才能弄明白怎么玩这东西. 不过现在,有了 Spark Photon,门槛就没那么苛刻了. Photon 和 原先的Core 十分类似,只不过速度稍微更快一些,而且更加紧凑.

英特尔推出用于Apache Spark的深度学习库

- - IT瘾-tuicool
英特尔今天宣布推出开源 BigDL,一个用于 Apache Spark 开源集群计算框架的分布式深度学习库. 深度学习库是英特尔公司在行业中实现最先进的人工智能战略的一部分. 在去年 11 月宣布的公司战略,详细介绍了英特尔所做的工作——通过旗下的人工智能学院(Intel® Nervana™)使人工智能训练和工具被更广泛的开发人员所获取.

Spark概览

- - 简单文本
Spark具有先进的DAG执行引擎,支持cyclic data flow和内存计算. 因此,它的运行速度,在内存中是Hadoop MapReduce的100倍,在磁盘中是10倍. 这样的性能指标,真的让人心动啊. Spark的API更为简单,提供了80个High Level的操作,可以很好地支持并行应用.

Spark与Mapreduce?

- - 崔永键的博客
我本人是类似Hive平台的系统工程师,我对MapReduce的熟悉程度是一般,它是我的底层框架. 我隔壁组在实验Spark,想将一部分计算迁移到Spark上. 年初的时候,看Spark的评价,几乎一致表示,Spark是小数据集上处理复杂迭代的交互系统,并不擅长大数据集,也没有稳定性. 但是最近的风评已经变化,尤其是14年10月他们完成了Peta sort的实验,这标志着Spark越来越接近替代Hadoop MapReduce了.

Spark迷思

- - ITeye博客
目前在媒体上有很大的关于Apache Spark框架的声音,渐渐的它成为了大数据领域的下一个大的东西. 证明这件事的最简单的方式就是看google的趋势图:. 上图展示的过去两年Hadoop和Spark的趋势. Spark在终端用户之间变得越来越受欢迎,而且这些用户经常在网上找Spark相关资料. 这给了Spark起了很大的宣传作用;同时围绕着它的也有误区和思维错误,而且很多人还把这些误区作为银弹,认为它可以解决他们的问题并提供比Hadoop好100倍的性能.

Spark 优化

- - CSDN博客推荐文章
提到Spark与Hadoop的区别,基本最常说的就是Spark采用基于内存的计算方式,尽管这种方式对数据处理的效率很高,但也会往往引发各种各样的问题,Spark中常见的OOM等等. 效率高的特点,注定了Spark对性能的严苛要求,那Spark不同程序的性能会碰到不同的资源瓶颈,比如:CPU,带宽、内存.

Spark&Spark性能调优实战

- - CSDN博客互联网推荐文章
       Spark特别适用于多次操作特定的数据,分mem-only和mem & disk. 其中mem-only:效率高,但占用大量的内存,成本很高;mem & disk:内存用完后,会自动向磁盘迁移,解决了内存不足的问题,却带来了数据的置换的消费. Spark常见的调优工具有nman、Jmeter和Jprofile,以下是Spark调优的一个实例分析:.

Mesos上部署spark

- - 开源小站
还是回到之前一直持续的 Mesos话题. 在之前的环节里,我们已经尝试了Mesos的安装,Marathon守护服务以及相对比较主流的Mesos作为Hadoop的资源管理器的实际操作. 这次就说说同属于伯克利出品的Spark. 其实spark最初0.7以前的版本还没有自己的资源管理系统,资源的调度都是通过Mesos来执行的.

Spark容错机制

- - zzm
一般来说,分布式数据集的容错性有两种方式: 数据检查点和记录数据的更新. 面向大规模数据分析,数据检查点操作成本很高,需要通过数据中心的网络连接在机器之间复制庞大的数据集,而网络带宽往往比内存带宽低得多,同时还需要消耗更多的存储资源. 因此,Spark选择记录更新的方式. 但是,如果更新粒度太细太多,那么记录更新成本也不低.

beeline 连接SPARK /Hive

- - 开源软件 - ITeye博客
hiveclient所在主机的jdk 1.7_51,hive 0.12和hadoop 2.3.0是从服务器端拷贝过来的,环境变量一切OK. 执行连接报了Invalid URL的错误:. 开始的一段时间都在纠结这个jdbc的URL格式问题,后来在cloudra论坛上找到了一个方法,. 直接调用的jdbc:hive2的驱动测试是正常的,证明CLASSPATH等环境变量没有问题.