人工智能(artifitelligence),英文缩写为ai。
这个名词越来越流行,越来越引起各个国家的高度重视。
alphago,在围棋方面战胜代表当今世界围棋最高水平的职业九段,李世石先生输得心服口服。
人工智能程序强大的计算力,让亚洲人引以为豪的,最能显现智商的围棋游戏,败给了铁疙瘩机器。
全世界人民震撼了,机器学习的能力,已经可以超越人类。
未来,ai的发展潜力不可想象。
ai领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
其实,早在几十年前,ai领域的先驱们已经开始,将各种研究出来的新型算法应用到各个领域。
只是可惜的是,那个时候芯片的速度,计算能力,存储器容量,不能足以支撑ai的超大规模计算。
现在这个年代,时机开始出现。已经有一些芯片厂家,能够支持如此大规模的运算。
小x的公司也投入到了时代洪流中。
小x的组,荣幸地参与了研发ai芯片的任务。
现在流行的ai算法,通俗的解释的话,就是先提取特征。
比如人像识别。
每个人的眼间距,眉间距,耳间距,瞳间距……
都是不同的,这就是特征。
只要能从图像中提取这些特征,然后和数据库中存储的特征值比对,就能很快匹配识别出来。
静态图片,一般的电脑就能很快识别出来。
可是,动态的影像,要想从几十成百的人群中,分离识别出来某一个人,其计算量就大了不知多少万倍。
如果再加上实时性要求。
要求在毫秒级别,识别出来某个人。
其计算能力的要求,又提高了好几个数量级。
这个时候,一般的电脑就满足不了计算要求,需要使用特定的芯片。
这种芯片可以将提取特征的算法,做成计算单元(硬件模块),利用其超快的并行计算能力,从而达到毫秒级的识别能力。
这就是大致的ai芯片实现一些智能功能原理的一个例子。
提取特征的设计方法越好,并行计算的算法越好,芯片并行计算能力越强,ai机器展现出来的效果就会越好。
ai软件设计师们,由计算机专家和行业专家组成。
他们的工作,主要就是设计出良好的特征提取方案。
方法设计得好,提取需要的计算量越小,特征覆盖效率越高,出来的效果和速度就会越好。
至于并行计算的算法,由专门研究ai算法的科学家和工程师提出。
ai科学界,进过多年的科学研究,已经有了不少实用的ai算法。
这些算法是纯数学的东西,这里就不展示那些数学公式和模型了。
简单的说,就是先设定特征提取的一个期望值。
然后,通过科学家设计的计算模型,向这个期望值逼近。
计算量是以兆亿为单位的,非常巨大。
这样大家应该能理解,为什么要到了当代,这些算法才能真正实用了起来。
ai芯片所要做的工作,就是将科学家们,工程师们,研究出来的算法,用大规模集成电路,实现出来。
对于特定领域的ai芯片,还会有针对特征提取算法做很多优化。
再举个例子,人脸识别芯片,就会针对人脸识别特征算法进行优化,硬件的设计自然就会不一样。
专门针对人脸识别特征的计算单元,加入到硬件组中,从而实现毫秒级的动态人脸识别。
小x的公司,主要方向就是图像处理方面的芯片研发。
人脸识别是其中一部分。
专业的东西先掰到这里,不知您晕乎了木有?
其实小x也是个半桶水。