微软和麻省理工开发AI修复无人驾驶汽车盲点
微软和麻省理工合作了一个项目,解决所谓的虚拟“盲点”,这导致了无人驾驶汽车的错误。
道路,尤其是与人类司机共享的道路,是不可预测的地方。针对每一种可能的情况训练自动驾驶汽车是一项艰巨的任务。
微软和麻省理工开发的人工智能将人类在特定场景下采取的行动与无人驾驶汽车的人工智能行为进行对比。当人类决策更加优化时,车辆行为将针对类似的未来事件进行更新。
该报告的作者拉姆亚拉马克里希南说:
“这个模型有助于自治系统更好地理解他们不知道的东西。
很多时候,当部署这些系统时,他们训练有素的模拟不符合现实世界中的设置,他们可能会犯错误,例如事故。
我们的想法是用人类以一种安全的方式来弥合模拟和现实世界之间的差距,这样我们就可以减少一些错误。"
例如,如果紧急车辆正在靠近,人类驾驶员应该知道如果安全的话让它们通过。这些情况可能会变得复杂,这取决于周围的环境。
在农村道路上,允许车辆通过可能意味着边缘在草地上。或者你的紧急服务部门最不应该做的事情是无人驾驶汽车应该处理所有的乡村道路,然后转向悬崖边缘。
人类不仅可以在现实世界中“展示”正确的方法,还可以坐在方向盘上“纠正”,如果汽车的动作不正确,人类就会接管。无论其行为被认为是可接受的还是不可接受的,都会列出一系列的情况。
研究人员确保无人驾驶汽车的人工智能不是100%安全的,即使到目前为止的结果。AI使用Dawid-Skene机器学习算法,利用概率计算来识别模式,判断某样东西是否真的安全或者是否还有出错的可能。
我们还没有达到可以部署技术的水平。到目前为止,科学家们只测试了电子游戏。然而,它提供了许多承诺来帮助确保无人驾驶汽车人工智能能够在一天内安全地应对所有情况。