你现在的位置:华中师范大学第一附属中学 >> 课程建设 >> 正文内容

华中科技大学国家教学名师何岭松教授做客我校光谷课程

作者: 编辑: 来源: 发布时间:2021年09月30日 点击数:

智能机器人如何与人交流,如何应对外部环境?是和我们人类一样的反应吗?要和人类进行交流,机器人也需要有视觉和听觉,那么机器人的视觉和听觉是如何形成的?这些问题是不是很有意思?2021年9月29日,我校光谷课程迎来十周年第二十期第一讲,我们邀请了来自华中科技大学机械学院的专家何岭松教授作为我们的开讲嘉宾,何岭松教授是博士生导师,国家教学名师,主要研究方向为工业测量与控制、虚拟仪器技术、虚拟现实技术等,何教授被人力资源社会保障部、教育部授予“全国模范教师”称号,何教授讲座的主题为《机器视觉与听觉》。

何教授向同学们主要分享了以下几个内容机器感知技术;计算机听觉相关知识与视觉相关知识。机器要与外界打交道,它是如何感知外部世界的呢?主要靠传感器+信号处理+人工智能,如弯曲传感器,通过该传感器提高追随物体的移动而变形,如波士顿动力研发的机器狗,要快速的拿起一个玻璃杯又不捏碎。再比如,很多人喜欢的运动穿戴,里面一般装有脉搏传感器,可以检测脉搏心跳等,当然还得有视觉传感器,有了这些传感器以后,还要进行信号处理,信号处理的工作主要是将传感器接收到的原始信息,通过数学公式进行加工,提取出其中的有用信息,供后续的人工智能环境进行判断。例如,我们经常在拍照时会看到相机里面有一些框框用来追随识别人脸的技术,机器如何识别人脸?就是根据人脸的基本特征和机器人原有的人脸模型进行信息提取。第三个重要因素就是人工智能,人工智能就是用计算机来模拟人的智能,对外部感知信号进行理解和判断,人工智能应用主要包括三步:模型选择、模型训练、预测判断。机器和人很像,要快速的进行判断,就需要掌握尽可能多和全面的信息,同时进行足够多的训练,如人脸识别系统,对于人类来说,一个熟悉的人,我们可以从正面、侧面甚至后脑勺快速的认出,但是对机器来说,如果不输入正面、侧面、背后等多角度和多状态的信息,就很难快速的进行正确的预测判断,如果人脸识别没有输入后脑勺的信息,那么从后面就判断不出来这个人的身份信息。

如果说视觉是机器人的眼睛那么听觉就是机器人的耳朵。世界上任何声音信号都可以看成由许许多多频率不同大小不等的正弦波复合而成在被计算机采集以后,经过傅里叶变换成机器能听懂的频谱,就形成了机器人的听觉。所以机器人通过一系列的复杂转换以后,就可以听懂一些语言,但是这些语言必须是机器人能够识别的,例如如果机器人没有获得某些方言信息和训练,就很难听懂或者根本听不懂地方方言。但随着人工智能技术的不断发展,机器人存储和被训练的信息量越来越大,有越来越多的方言和不同语种的语言也能被识别了。那么机器的视觉是如何形成的呢?首先,红绿蓝(RGB)三种基本颜色不同比例的混合可以得到不同的颜色。机器要识别或寻找自己的目标,除了通过颜色,也可以通过边缘检测等技术实现,例如用无人机航拍动物,可以将动物的基本轮廓模型设定为采集目标。总之,机器人的视觉来源就是:摄像装置将摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号,图像系统对这些信号进行各种运算来抽取目标的特征,形成机器人的视觉。

讲座的最后何教授跟同学们介绍了华中科技大学机械学院的相关专业并向同学们寄语要学好计算机,选择人工智能作为将来的学习和研究方向,首先要学好数学基础学科非常重要


202109301307370269.Jpeg


202109301307378460.Jpeg


【字体: