需求解析

技术需求基本信息

0 / 2000
0 / 1000
万元

技术需求解析

0 / 500

技术研发指南

随着社会生产力的发展,人们生活水平有了显著提高,生活节奏的加快使得交通需求快速增加,我国机动车数量也持续增长,使得道路交通安全问题日益严峻,道路交通事故逐渐成为造成人类伤亡的主要原因之一,其中57%的灾难性事故与驾驶员疲劳驾驶、超速、酒驾有关。交通事故已成为危害人身及财产安全的首要隐患,因此,加强驾驶检测技术的研究,防止驾驶事故的发生,对提高道路交通安全具有十分重要的意义。

根据相关部门的统计调查,大约30%的交通事故发生的原因都是因为驾驶员疲劳驾驶。同时因为疲劳驾驶不容易被交警察觉,其已经成为交通事故的定时炸弹”。通过对各类疲劳驾驶引起的事故进行研究分析,如果驾驶员处于清醒状态,事故发生前有更快的反应,就可以避免大部分交通事故的发生。所以在进行大量案例分析的基础上,研究并建立人工智能技术为基础的多变驾驶环境下驾驶员视动检测系统,具有很高的应用价值。

驾驶员作为一种特殊的职业,对视功能有特殊要求,视功能的好坏直接关系道路交通参与者的生命安全。特别是因为视功能发生障碍,不能准确观察判断周围物体的形态、位置和距离而肇事的比例,在各国交通事故统计中各有高低:日本81%,美国48.1%。可见,具备良好的视觉功能是安全驾驶很重要的必备条件。如今,视点追踪技术正在快速发展,人类对新型人机交互的需求也在不断扩大,若能将两者结合,创造出一种以视点追踪技术主导的新型人机交互系统,将会给计算机行业带来一场变革。信息加工在很大程度上依赖于视觉,约有80%~90%的外界信息是通过人的眼睛获得的。由于人的视线具有直接性、自然性和双向性等其它信息所无法具备的特性,利用其特性可以反映出人的心理状态与精神状态,若能将驾驶员的视觉信息记录并加以分析,对避免交通事故发生大有裨益。显然,视点追踪技术的发展与使用是大势所趋,越来越多的研究将其融入人机交互技术之中,使其成为一种新型的、自然的、高效的全新交互模式。目前,视点追踪技术发展迅速,越来越多的研究成果不断出现,如张闯等人利用亮眼现象,提出了一种基于多通道图像的高精度亚像素特征参数提取方法,占艳团队实现了一种以Hough变换为基础的瞳孔定位算法,李擎团队提出了一种更精确的瞳孔检测算法。

交通驾驶场景是一个立体多元、瞬态变化、动静结合的复杂环境,场景中不仅有静态目标,如停放在路边的汽车,也有动态目标,如行驶的汽车或行人。通过模拟交通场景中驾驶员视觉选择性注意机制,开展交通场景视区检测研究,可以为未来自动驾驶(或无人驾驶)车辆提供一种快速又安全的目标检测驾驶策略。

本项目通过对驾驶员的动态视功能特点进行全面评估和检测,建立人工智能技术为基础的多变驾驶环境下驾驶员视动检测系统,将视动检查标准化体系纳入驾校学习和考试内容,提前发现进而除视力等基本条件以外因为驾驶员自身视功能异常而导致交通事故的潜在危险,利用VR模拟复杂视觉环境和多变驾驶场景,形成特定硬件进行针对性的视觉功能训练,改善驾驶员的视觉信息整合能力、眼手脚协调能力及反应速度,以达到促进安全驾驶的目的。

在技术方面的研究有以下几个方面:

1、基于视点跟踪技术的人机交互的算法及模型。

2、基于视觉注意的显著区域的获取模型及算法。

3、特定场景驾驶行为响应的参数的获取和分析及相关硬件设备的二次开发。

4、以眼动参数为主成分的系列参数与驾驶缺失的数据深化分析研究。

本项目需要解决的主要技术难题是特定场景驾驶行为响应的参数的获取和分析及相关硬件设备的二次开发,期望实现的主要技术目标是研发视点追踪和视区检测在安全驾驶能力测试中的关键技术研究,研发“视点追踪和视区检测”的原型机,并保持更新迭代的可能性。

a. 系统构建于稳定的Microsoft Windows10平台之上,系统配置要求高性能专业主板,不低于四核以上的CPU,不低于4G或者以上的内存。不低于1000G高速硬盘,不低于1000G高速系统备份硬盘,独立显卡内存不低于4G,1台分辨率较高的彩色液晶显示器;

b. 系统响应时间在500ms以下,系统处理时间在50TPS~100TPS,系统CPU使用率不超过80%~85%,内存利用率一般不超过80%~85%;

c. 系统需要满足现有业务的功能需求,要求具有兼容性,易用性,可靠性,安全性,可维护性,可移植性等性能;

d. 场景数据集采集:采集各种视觉眼球数据集;

e. 视线跟踪系统实时跟踪误差小于1cm,达到良好的视点追踪效果;

f. 相机分辨率从130万像素到2400万像素的相机分辨率采集眼睛图像;

e.不同的照明水平:荧光灯(色温~6400K),白炽灯(色温~2500K),混合灯(色温~5500K)。

解析专家署名