谷歌和大阪大学的研究人员最近进行了一项研究,探索使用人工智能将思想转化为音乐的可能性。在这项研究中,五名志愿者在功能磁共振成像扫描仪内聆听了500多种不同音乐风格的曲目。然后,捕获的大脑活动图像被输入到一个名为Brain2Music的人工智能模型中,该模型使用谷歌的人工智能音乐生成器MusicLM来创建类似于受试者正在听的歌曲。
研究人员得出结论,生成的音乐与志愿者经历的音乐刺激相似,包括流派,乐器和情绪。研究结果可在Google Research Github上收听。
这项研究的潜在影响令人兴奋。这表明这项技术可以作为智能音乐创作软件的垫脚石,该软件可以解码思想并将其转化为音乐。研究人员设想了一个未来,人工智能可以纯粹根据个人的想象力生成音乐,而不需要特定的音乐刺激。
虽然心灵感应数字音频工作站的想法目前似乎有些牵强,但这项研究提供了对融合人工智能和神经科学的可能性的见解,以进一步了解人脑和音乐之间的关系。
详细介绍这项研究的整篇研究论文可以在arXiv上访问,arXiv是由康奈尔大学主办的免费学术文章在线档案。