AI尝试破译大脑语言信号,转化准确率为40%至80%

AI1年前 (2023)发布 aixure
74 0 0
导读:见习记者 张唯 为癫痫患者植入电极以获取大脑信号。 对于瘫痪且丧失语言功能的人来说,语言信号被封藏在大脑中,没有人能够直接破译。最知名的例子就是物理学家霍金,他生前曾患上肌萎缩性脊髓侧索硬化症(俗称渐冻症),全身瘫痪,又因一次肺炎手术失去语言…

见习记者 张唯

为癫痫患者植入电极以获取大脑信号。

对于瘫痪且丧失语言功能的人来说,语言信号被封藏在大脑中,没有人能够直接破译。最知名的例子就是物理学家霍金,他生前曾患上肌萎缩性脊髓侧索硬化症(俗称“渐冻症”),全身瘫痪,又因一次肺炎手术失去语言能力,只能通过一种叫做“Cheek Switch”的面部打字装置与外界沟通。

近日,三个国际科研小组尝试破译大脑的语言信号。他们使用大脑数据训练出了一种人工智能系统,该系统结合深度学习和语音合成技术的最新进展,可以将大脑活动数据转化成语音。

三组研究人员在人们大声朗读、默念或听录音时监控他们大脑的某些部位来采集数据,再把收集到的大脑信号转化成人类听众能够理解的单词和简单句,转化准确率在40%至80%之间。相关研究于2018年10月至11月发表在生物学预印本网站bioRxiv上。

收集大脑活动数据的过程十分艰难。来自第一个研究团队的哥伦比亚大学计算机科学家Nima Mesgaran介绍,这项研究用到的神经网络计算模型要求相当精确的数据,需通过打开头盖骨植入电极的侵入方式获龋只有少数脑外科手术可以进行这种侵入式的信息收集,可供收集的时间通常只有20至30分钟。另外,将大脑信号转换为语音的方式因人而异,计算机模型必须针对每个人进行“培训”。

在Mesgaran等人的研究中,他们让5位癫痫患者听0到9的数字录音,并在此过程中采集他们的听觉皮层信息。然后,神经网络计算模型用收集到的神经信号生成语音信息。当计算机合成并播放出这些0到9的语音信息时,人类听众将其正确辨认的概率为75%。

加州大学旧金山分校的Gopala K Anumanchipalli 教授团队做了类似的研究。他们收集了3位癫痫患者朗读文本时的神经信号,通过AI系统转化成语音信息。研究人员邀请了166位志愿者来辨别这些语句,其中一些句子的识别率超过80%。这项研究发表于2018年11月。

另一类数据来自接受脑瘤手术的患者。德国不来梅大学的Miguel Angrick和荷兰马斯特里赫特大学的Christian Herff收集了6个脑瘤手术患者的数据。在患者朗读单词时,研究人员记录下他们大脑语言区和运动区的神经信号并生成语音信息。研究人员发现,约40%的计算机合成单词可以被人类听众理解。

然而,这些研究还处于早期阶段,只能收集并解读人们说话时的大脑信息,尚不能为完全丧失语言功能的人服务。完全丧失语言功能的人无法开口说话,只能在心中默念。而圣地亚哥州立大学的神经科学家Stephanie Riès介绍,人们在默念时产生的大脑信号与说话时的大脑信号并不相同,如果没有外部声音的配合,计算机甚至很难分辨出大脑语言信号的起始点。这也意味着,人类距离使用脑机接口和人工智能技术让失语者“开口说话”的那一天还很远。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...