说起特斯拉汽车,最让人津津乐道的,除了忽高忽低的价格外,就属其全自动驾驶(FSD)了!
去年,特斯拉向用户开放FSDBeta。不少车主反馈,该系统已十分“接近”真人操控,除了让车依导航路线行驶外,还能处理特斯拉与其他车辆及周围物体的关系,比如超车!同时,还会自主识别停车标志和对交通信号灯做出相应的操作,在高速道路上实现自动变道、自动转弯等等。#数码科技趣闻#
等等,这满身“技能”到底是如何实现的?需要哪些技术支撑呢?
人通过眼睛实现对外界的感知,同理,汽车也需要看清前方道路才能做出判断,所以“车辆感知”部分必不可少,而这其中就包括摄像头、雷达等。拿特斯拉Model3来看,该车共标配了8颗摄像头,1颗雷达和12颗超声波传感器。
当车辆可以“看清”前方时,就解决了自动驾驶的第一步!接下来,是如何提前预知危险,避免事故隐患。为此,特斯拉AI团队搞了一个“秘密武器”——“DOJO”超级计算机,它能接收车在行驶过程中生成的视频,通过大量浏览文件识别此前系统未定义的信息,更全面了解周围环境。
即便有了技术的加持,也不代表可以高枕无忧了!前不久,NHTSA调查的27起特斯拉汽车事故结果表明,FSD仍是L2级自动驾驶。也就是说,车辆在行驶过程中,依旧需要驾驶员保持注意力集中,以便随时接管。
虽然“完全自动驾驶”并未走进现实,但利用AI系统辨别环境的做法,已慢慢渗入到其它领域,并给一些“特殊群体”带来帮助。日前,乔治亚大学的研究人员开发了一种背包系统,就能自动识别周遭环境中是否有障碍物,从而帮助盲人或视力受损者了解环境并导航。
准确来讲,这个创意的贡献者是计算机视觉/人工智能工程师JagadishK.Mahendran,谈到开发这个背包的初衷,他表示:“去年,我遇到一个有视力障碍的朋友,很讽刺的是,我在教机器人看东西时,有很多人却无法看到。”
于是,这个神奇的“AI背包”就诞生了!话说,它是如何替代手杖,甚至导盲犬的位置的呢?
英特尔打造AI“大脑”
这是一款AI驱动、语音激活的交互式设备,主要由背包、腰包、马甲搭配,共同合作完成“任务”!
分配上,背包里面装着一个带有GPS装置的轻量级计算设备(类似笔记本那样),背心夹克上藏有4K摄像头,腰包里有一个口袋大小的电池提供电量,能维持8小时续航,够意思了。
背包系统构建上,用到了OpenCV的深度人工智能套件(OAK-D),该套件技术来自英特尔。
同时,还使用了英特尔的Movidius图像处理技术和OpenVINO工具包,使其运行先进的神经网络,并提供加速的计算机视觉和色彩信息。
那么,它是如何工作的呢?
首先,摄像头将采集的信息输入背包中的“大脑”,系统借助一个通过USB连接的GPS组件、OAK-D接口以及神经网络来解析可视数据。
接着,穿戴者可以通过系统配备的蓝牙耳机,用声音控制系统,例如要求系统告知所处位置,或者描述周围的环境。
原理上,有了这个系统后,盲人和视障受损者就能在户外畅通无阻了!那...具体可以细致到何种程度呢?
能看会“说”,障碍全方位预警
经过培训后的系统,可以识别出有视觉的行人在城市中行走时会看到的物体,例如汽车,自行车,其他行人等。
以及一些人行道,草地,路缘石、人行道等日常经典地形......
更让人惊讶的是,它还能分辨垃圾桶、以及一些重要的标识牌。
当人在环境中移动时,系统会以声音传达常见障碍物的信息。
例如人行道前方有灌木或树枝悬空时,系统会发出如“顶部”“前方”的通知,用于警示用户。
除了平坦道路,它还可以提前预警阶梯坡度变化,例如从路边上到下的台阶,给穿戴者规避“危险”!
此外,系统还支持更多的语音命令交互。
比如描述1点钟方向的交通灯、10点钟方向的汽车。
又或者,当用户接近垃圾桶时,系统会发出“左边”、“右边”或“中间”的简单口头警告,来描述垃圾桶的大致位置。
总而言之,这个背包系统考虑到了盲人或视障人士会面临的一切问题。关键是,背包的“隐匿性”设计,能让穿戴者像常人一样在大街上走动,不会受到路人过分的