(资料图片仅供参考)

科技日报记者 刘霞

荷兰拉德堡德大学和乌得勒支大学科学家成功将人类的大脑信号转化为人们能听得见的语音。借助植入物和人工智能解码来自大脑的信号,他们能够预测用户想说的话,准确率为92%至100%。研究人员希望这项技术能够帮助瘫痪且无法沟通的患者再次“发声”。相关论文发表于最新一期《神经工程杂志》。

拉德堡德大学科研团队请临时植入大脑植入物的非瘫痪用户在测量大脑活动时大声说出一些单词,借助这一方法,他们在大脑活动和语音之间建立了直接的映射关系,随后,使用先进的人工智能模型将大脑活动直接转化为听得见的语音。这意味着他们不仅能猜测用户在说什么,而且还可立即将这些单词转化为可理解的声音。更重要的是,重建后的语音在语调和说话方式上甚至听起来像瘫痪人士发出来的。

在最新研究中,研究人员用相对较小的数据集重建可理解的语音,表明模型可用有限的数据揭示大脑活动和语音之间的复杂映射关系。他们还对志愿者进行了听力测试,以评估合成单词的可识别性。结果表明,这项技术不仅正确识别出了单词,准确率高达92%到100%,还让这些单词像真实的声音一样被听得见和理解。

不过,研究人员强调,最新技术仍有一些局限性。他们的目标是仅根据人们的大脑活动来预测他们想说的完整句子和段落。要实现这一目标,还需要开展更多实验,研制出更先进的植入物,采集更大的数据集,创建更先进的人工智能模型。

推荐内容