微软研究室在今年的研究学院高峰会上展示了旗下人工智能技术应用的进展。通过“Adam计划”,微软基于人工智能模拟人脑工作、记忆、识别的方式。当电脑系统读取物件影像外观后,即可进一步分析细节,例如识别食物营养成分,以及辨别不同种类的狗等。
在“Adam计划”中,微软采用类似于亚马逊Fire Phone所使用的物件识别技术,进一步让人工智能模拟人脑识别记忆方式,通过向电脑输入大量影像信息,并且以用人脑记忆方式构建资料库,当系统进行物品影像识别后,即可快速比对资料库中的内容,从而现实对人脑在看见的特定物品后,会即刻联想到相关信息这一运作方式的模拟。
微软研究团队为“Adam计划”构建了超过1400万张Flickr图片,以及大量源自互联网其他空间的图片内容。与照片对应的分类超过2.2万组,让电脑系统“学习”相当完整的影像识别能力,未来预期将可直接通过单一食物影像,就可快速分析出,其所含营养成分,或者进一步应用于犯罪识别等。
在此次试验展示中,微软把同样进行测试的数字助理Cortana与“Adam计划”进行了整合,展示了实际拍摄后,对犬种识别的应用。
在此之前,Google X实验室就展示了神经网络(neural network),使用1千台电脑,与1.6万组运行中枢,演示了神经网络如何从1千万张YouTube照片找出一只猫,并且可通过识别脸部特征、高级概念形成(如分辨猫脸与人的肢体)等情况进行自主学习。
谷歌可是识别猫 微软可以识别狗 这是要闹那样
即可进一步分析细节
好吧!现在计算机 越来越厉害了!
读取物件影像外观后
输入大量影像信息
展示了实际拍摄后,对犬种识别的应用
不错,说明在进步,下一步该识别什么了?
大量影像信息
进行测试的数字助理
记忆方式构建资料库