网易智能讯4月23日消息,据国外媒体报道,一个由加州大学旧金山分校的研究团队打造的新型人工智能系统可根据人脑信号来生成文本,准确率最高可达97%。
亚马逊和谷歌等科技公司打造的虚拟助手相当先进,语音识别能力比起几年前进步惊人,近年来人们才刚开始领会它们的威力。
然而,事实上,一项更令人惊叹、更匪夷所思的里程碑式技术创新可能即将实现。它的出现让语音识别技术完全相形见绌,这是一个十分强大的人工智能AI)系统,可以根据人们的大脑活动直接生成完整的文本,整个过程完全不需要听到任何一个单词。
这不完全是科幻小说中的概念。近几十年来,从动物模型到人类参与者,脑机接口技术的发展可谓突飞猛进。事实上,这类技术已经在尝试将这种概念从幻想变成现实。
加州大学旧金山分校的研究人员在一项新研究中解释说,目前来看,通过该技术将人脑信号转换成的文本结果还不很准确。
为了探究是否能够改善这一状况,由加州大学旧金山分校Edward Chang实验室神经外科教授Edward Chang领导的一个团队使用了一种全新的方法来解码脑皮质电图:通过植入大脑的电极,来获取皮质活动中所产生的电脉冲记录。
在这项研究中,四名癫痫患者使用了这种植入物,以便监测他们的身体状况引起的癫痫发作情况。研究团队还进行了一项附带实验:让参与者大声、反复地朗读一些预先准备的句子,同时通过电极来记录他们在此期间的大脑活动。
然后,这些数据被输入到一个神经网络,该网络根据实验的音频记录,分析出与特定语音特征如元音、辅音或口型)相对应的大脑活动模式。
之后,另一个神经网络对这些大脑表现进行解码——参与者反复朗读30到50个句子时产生的大脑活动数据——并据此来尝试预测人们所说的话,预测根据他们朗读单词时所产生的皮层信号来进行。
在最好的情况下,该系统在将其中一名参与者的大脑信号转化成文本时,词错率WER)只有3%——至少在这些严格限定的实验条件下,这个词错率也许已经接近于迄今为止人工智能读取人的想法的最佳表现。
在研究论文中,研究团队详细列举了许多参与者所朗读的参照句子的例子,以及神经网络所生成的“预测”。那些预测有时是错误的,但也不总是出错。然而,从那些非常明显的错误来看,它们似乎与人耳听语音时会犯的错误大不一样这可能是人工智能引入的数据集有限所致)。
神经网络出错的例子包括:“这家博物馆每天晚上都聘请音乐家过来”,被预测为“这家博物馆每个昂贵的早晨都聘请音乐家过来”;“蛋糕的一部分被狗吃掉了”,被预测为“蛋糕的一部分是饼干”;“蒂娜·特纳是一位流行歌手”,被预测被“迪德·特纳是一位流行歌手”。
在最糟糕的例子中,神经网络的错误完全莫名其妙,不管是在语音上还是在语义上,都与实际的句子完全搭不着边:“她穿着温暖的羊毛工装裤”被预测为“绿洲是海市蜃楼”。
然而,研究团队称,尽管这些显而易见的错误有些诡异,但总的来说,该系统也许还是刷新了基于AI的大脑活动解码的最佳表现,毕竟它表现最好时的词错率只有5%,能够与专业的人工语音转录相提并论。