,“深度学习”在顾诚手中自然还有他独到的用处,那就是“用户偏好分析”。
这事儿在平行时空的起步,比前两项应用要晚得多,但顾诚深知那并不是这件事情技术上比前两项难多少,而是因为平行时空最初接触深度学习型人工智能的巨头们,统统都没有涉猎娱乐/内容产业。
换言之,如果第一批接触深度学习人工智能的换成亚马逊公司,“用户偏好分析和推送”肯定会变成第一优先级的存在。
顾诚的生意,和亚马逊的重合度非常高,而且他是个知其然知其所以然的人,当然不会放过这一领域的布局。
只是这块工作量比较大,一方面要堆叠算法,另一方面也要让把目前市面上已有的大量文娱作品进行标签化分类和数据标识、将来再长年累月一步步细化细分数据表示。
按照最乐观的估计,“用户偏好分析和推送”至少要在实验室里躺两三年,才能谈试运营的问题。
幸好顾诚钱多,做得起这种长线投资。
……
在多伦多盘桓了三四天,挖够了人之后,顾诚就准备驱车回波士顿,了结一下跟扎克伯格的赌约。
然而算算日子,跟扎克伯格的一周之约还没到期,顾诚只好先去纽约休假两三天。
以他这么忙的身份,就算在纽约也不会很闲,至少也要电话遥控一下生意。
这不,他人还在多伦多的时候,就把公司的准cFo柳倩从纽约配去了旧金山,让她在硅谷投资一块办公楼地皮,在那儿注册一间yy子公司、同时留心一家成立还不到两年的初创公司,尝试一下收购。
被顾诚盯上的这家公司,便是后来在o5年拿出了世界三大物理运算引擎physx的ageIa公司。这家公司历史上应该于o8年被英伟达(nVIdIa)收购,后来成就了英伟达的完全体gpu大业。
顾诚要搞深度学习型人工智能,要搞卷积神经网络,挖一家这样的公司就非常有必要。
就如前几天顾诚和史蒂芬.库克教授谈到的那样,任何“神经网络”和传统计算机网络最大的区别,是“没有中枢,每个神经元节点完全平等,彻底云分布”。
所以在执行“神经网络”相应的运算时,人类传统的电脑cpu效率其实并不是很高,无论英特尔还是amd。
因为稍微懂点计算机常识的人都知道,cpu是“时分占用”的计算硬件,通俗的说,一个4g主频的cpu,只是一秒钟能够运算4o亿次,但每一瞬间依然只能计算一次,Indos的“多任务处理系统”,本质上只是“把cpu的时间占用细分,每个后台程序在每一秒里占用那么几微妙”来实现的。
比如一个人打cs游戏的时候,后台开了个QQ。运行QQ需要占用“每秒1亿次运算”的cpu处理资源,那么实质就是“4g主频的cpu每秒分出25毫秒处理QQ”,而不是物理意义上的“同时处理bsp; 这种只能单核运算的模式,注定了不适合未来卷积神经网络越来越多的“并线操作”。所以o6年当卷积神经网络的曙光出现之后,平行时空的英特尔公司也不是没有意识到这一点并且挣扎。只不过英特尔公司最初的挣扎方式是“开多核bsp; 这才有了后来人们熟知的“英特尔酷睿双核/四核”。
可惜历史最终证明,cpu再多核,要满足浩如烟海的并线操作,也是杯水车薪。
要彻底满足神经网络的并线胃口,还是得靠最初作为显卡物理运算用的gpu。
这才有了后来人工智能在软件领域爆后,倒逼硬件计算企业市值剧烈波动。做显卡gpu出身的英伟达公司,一下子在两年里股价市值跃升了十几倍,俨然对英特尔都形成了竞争。
用一句文科生都听得懂的话来解释这里面的区别:为什么所有的显卡都没有“双核/四核”概念?就是因为显卡gpu的每一个单元都是天然并行运算的。显卡处理电脑图像的时候,每一个像素都是单独同时处理的。没有了“时分占用”的瓶颈,导致gpu显然不像cpu那样需要多核。
(注:gTx-Titan系的显卡有些被称作“双核”,其实是商家的错误宣传,那些显卡的本质是“两块显卡”而不是“双核”。)
顾诚的打算,就是在英特尔还准备靠多核挣扎的时候,他直接一步到位看穿其中的大坑,直接跳到gpu一统天下的路数上去。
如今的ageIa公司成立还不到两年,也没什么牛逼到爆的科技成果市场化。柳倩挥舞着顾诚的支票本出,断无不利之理。