对Neurolink的反思——脑机接口技术在技术与伦理层面的双重挑战
摘要: 脑机接口设备是否会造成不必要的痛苦, 02.脑机接口的可行性与技术难题 首先是安全问题, 那么必定会给植入设备者造成一系列的痛苦
张钊铭,女, 本科毕业于华中科技大学电子科学与技术专业,现中国人民大学科学与技术哲学研二在读。主要研究兴趣为技术伦理,认知科学哲学,信息哲学等。
八月末,马斯克的Neurolink开了一次演示直播,在演示会中,向人们展示了植入脑机接口的猪的脑电波,并畅想了拥有Neurolink部件的人类可以有怎样的梦幻般的未来。由此广受关注,这一技术也引发了科技圈以及伦理学界广泛的讨论。
本文试图从技术与伦理两方面去探讨脑机接口,从技术上分析其可行性和可能遇到的问题,并从哲学角度思考其可能引发的伦理难题。
01.Neurolink当前进展
在开始分析前,再次介绍一下8.29的这场演示的主要内容。
马斯克开篇即表示,这次演示的目的不是融资,而是一次为了招募更多人才而进行的宣传。而Neurolink的最重要的愿景,是为人类治病——随着人预期寿命的延长,如何让衰老的躯体更好地为自由的意志服务,有待解决。随着衰老,脑会发生变化,从轻微的记忆力下降,到沮丧、焦虑,乃至中风、脑损伤,这些或多或少都是神经系统的问题。如果真有普适的设备帮人类解决这肉体的负担,不得不说是件伟大的事。
那么Neurolink目前研发的0.9版本的Link设备,做到了什么呢?大致说来,是对神经元电信号的读写操作。虽然是在猪脑进行演示,但马斯克表示,在今年的6月,他们便获得了美国食品药品管理局的许可,即将投入对人脑的试验。
从前不是没有读取脑电信号的设备,可要么是颅外湿电极,涂抹胶水等都会对受试造成极大的不适且有颅骨的信号干扰,要么是更不精准的干电极设备。而Neurolink当前研发出来的设备是植入到颅骨以内,信号的读写速度达到20Mhz每秒,且十分精准,而设备的大小已缩减到直径2.3厘米,厚度8毫米的超小圆片,可以无线充电,植入手术全自动化,也会精巧地避开血管。在演示会上,马斯克以猪为例,展示了植入芯片后可看到神经元受到刺激后的电平变化,多设备植入的情况,以及给予电平刺激后神经元的反应等等,都让人惊叹如此小的一个部件所能达到的精准度。
这些技术本身并不新奇,但其商业化程度远超当前医疗相关研究的任何装置,可说是从实验室走向民用穿戴设备的重大进展。
02.脑机接口的可行性与技术难题
首先是安全问题。安全问题又可分为人体安全和信息安全两部分。
先说人体安全。
这其实也是许多已通过了美国FDA认证的高技术也无法避免的问题。在2018年的纪录片《尖端医疗的真相》中,我们可以看到,FDA不同部门的监管效力不同,对医疗器械的管理并不像药品上市那么严格,许多号称安全、便捷、高效,并且收费不菲的高技术产品如避孕设备Essure、疝气补片、髋关节假件、达芬奇手术台等,在几乎没有足够试验的情况下批准,或者移位,或者导致炎症、组织粘连,或者重金属扩散伤及全身神经系统造成错乱、或者手术不成功……凡此种种,不一而足。无辜的信任着高技术的患者获得的是更严重的一生的痛苦,观之触目惊心。
马斯克推出的这款脑机接口产品,同样是植入型的设备,其副作用可能要经年累月才会出现,而医疗器械的临床试验研究窗口往往只有12-18个月。这些技术看起来高大上,但随之而来的隐患、风险与其新奇如影随形。
尤其Neurolink研发的设备最终要植入人的颅骨内。如何降低植入手术的风险?如何保证植入体的位置稳定?如何保证术中与术后都不造成炎症或者许多年间都不发生组织粘连?如何避免芯片中的金属元素扩散?这些问题,任何一个解决不好,都会对使用者的人体安全造成巨大的威胁。
再看信息安全。
如果人们当真可以读写自己的神经元信号,也必定会生成巨量的信息。
从技术角度去看,信息安全又可分为传输、使用、存储等许多过程。使用无线电波来发送和接收信号,很容易受到第三方的监听和攻击,如何保证传输过程的数据安全性,是一个重要的技术问题。攻击方和平台维护者往往会在这类信息安全问题上反复较量。大公司也往往有自己专门的信息安全技术部门,Neurolink当然也不例外。
信号传输过程中如何反挟持?具体使用何种加密方式?除了设备穿戴者本人外,有谁有权限访问其产生的数据?如何保证对设备的病毒攻击不会伤害到人的神经网络?
施奈尔(Schneier)在《网络信息安全的真相》中曾说,“安全不是一个产品,而是一个过程”,在设备使用的方方面面,信息传输、使用、存储的任一环节,都有着许许多多的风险。脑机接口如果大规模使用,它的信息安全问题将比普通的互联网信息安全更加严峻。
要知道,脑机接口的安全比其他的数据更为重要——它直接涉及了个体的脑部神经元读写,几乎可视为主体人格的一部分。
此外,真想把技术落地,实现安全、高效,实现其治疗神经疾病的愿景,涉及大量的,或许能解决、也完全有可能无法突破的可行性问题。
从产品生产、封装的角度去考虑:
如何保证其电池的使用寿命?什么样的半导体材料能够使得产品的体积足够小,又有足够的算力、存储、读写信号的能力?什么样的封装材料能够保证产品不会与人脑组织发生反应,不造成粘连?
从产品安装的角度去考虑:
Neurolink希望手术全面自动化,由机器全盘操纵手术。从某种意义上来说,能够避免前面提到过的“达芬奇手术台”因医生未经足够培训、不够熟练所导致的悲剧,但这要求机器能够做到智能选择设备的植入位置、判断深度、进行后续缝合等等。机器真能够熟练地完成这些任务,应对复杂的脑型和不同的植入点需求吗?
从信息传输的方面去考虑:
如何保证距离相近的不同设备的无线信号之间不会互相干扰?如何保证输入与输出信号的稳定?当设备做得极其微小,如何确保收集到的信号依然清楚准确?大脑本身的电磁场会否造成影响?
从产品推广的角度去考虑:
马斯克强调过,该次演示不为募资,只为招人。当前团队人数有一百人左右,或许未来将会有数十万人。而据说,马斯克本人已为这一项目投资近2亿美元。大量的资金、人力投入,其真正的技术突破性进展却在一定程度上有赖于其他基础科学如材料科学的研发。
从产品实现目标功能的角度去考虑:
该现场演示中的Neurolink仍是十分初级的形态,仅能简单地读写神经元。要治疗神经性疾病,一方面要有对相关疾病成因的了解,才能对症下药,另一方面要真能实现操作。如何使用脑机接口调节神经系统乃至替代其功能?所谓的“写入信号”,身体会立刻响应吗?若要替代中枢神经系统,对躯体的神经末梢下达相应的运动指令,要使用何种语言与细胞进行沟通?脑机接口可以接收电信号,那是否应当,又如何接收内分泌系统的化学信号?
如果在把钱烧光以前,仍无法达到应有的市场规模和技术成熟度,不能实现最基本的有效的功能,就不过是和上世纪的日本第五代AI计算机系统研发一样,画了一张好看的大饼,曲终人散之际,“就当是一场梦,醒来很久还是很感动”。
从产品可能引发的新风险去考虑:
在科幻电影《升级》中,便对Neurolink的一些概念进行了延伸,描绘了一个能够联结瘫痪人类大脑与身体的人工智能芯片。电影认为,这一芯片能够实现这样的任务,有赖其人工智能发展到了足够的程度,而这样的人工智能一旦具备机器自我意识并侵入人的意识,已经将生命、神经信号交托于芯片的人类,几乎毫无还手之力。即使不像科幻电影假设得那般恐怖,也要考虑脑机接口设备,是否将人类置于新的,前所未有的风险之中?这就需要从哲学的角度去进行反思,给出相应的解释。
03.对脑机接口的伦理反思
先要考察是否违背三条基本的伦理原则:一,平等的人应当受到平等的对待;二,不必要的痛苦是恶的;三,科学技术的发展,应当遵循“拓展知识”以及“人类福祉”这两个根本价值。前两条原则来自哲学导论《做哲学》中对伦理学的讨论,第三条原则来自国内学者对默顿“科学规范”理论的元伦理学解读。
一,脑机接口设备是会促进平等还是加剧不公?
从治疗疾病的角度,脑机接口能调节人体的神经系统,改善人体健康,使得衰老过程中的人依然保持良好的大脑、神经状态,如果真能实现其应有功能,那么也许35岁以上的员工也有着很高的工作效率,职场的年龄歧视可以被消除;也许原本有先天性神经疾病/突然遭遇神经相关意外的人也可以变得健康,让他们过上正常的生活。这显然有助于实现人与人之间生理机能上的平等。
从使用权的角度,马斯克说,Neurolink的愿景是希望这一装置变得平价,让任何一个想要拥有它的人都能够拥有它,而不是某些个别人的昂贵的康复机器。如果该承诺兑现,其价格真能缩减到普通人也可以负担的程度,显然不会加大贫富差距,也同样有助于实现人们的健康权平等。
但这样一个能够读写人脑神经信号的设备,必定不会止步医疗。
在另一项公共服务,基础教育领域,如果每个人的神经都可以由机器进行加强,从书本学习变为脑内沉浸式学习,那么学习的成本会下降,效率却会提高,人与人之间在获取信息上的差距也可以减小。基础教育的时间也可以缩短,教育资源分配的方式也会发生变化。但要注意,定制化的教育、经验内容不再是公共服务,而应被视作消费项目。
在消费领域,富人总是能够享受到更丰富也更个性化的服务,虽然基础的教育、医疗都是公共服务,但定制的高端服务会使得贫富之间差距更大。比如富人可以更换更新更强的设备,实现大脑功能、享受等等的全方位提升,低收入则只能配备最低限度的资源。
脑机接口一旦全面推广,想必会提供一片广袤的服务业蓝海,提供旺盛的各领域脑机接口化的需求,也必将使得贫富差距变得更加隐秘。那时,贫穷或许真会限制人的想象力——但反过来说,连神经信号都能够数据化,或许人的思维方式也会被趋于去中心、反权威的互联网精神所影响。脑机接口可能创造的种种新产业,值得人们在具体运行时仔细审度、斟酌,也有待时间的检验。
笔者以为,在医疗方面,如果能够降低其使用成本,便会促进人与人之间的平等,是好事。但在消费领域,有可能会加大贫富差距——不过这又涉及到了机会平等与结果平等的区别,此处不论。
似乎综合看来,Neurolink有极力做到平等。但高技术自带了其他的不平等——使用技术的人与不使用技术的人之间的不平等,甚至是技术与人之间的不平等。
中国已步入信息社会,在拥有智能手机的人日益感到便捷的同时,不会使用智能手机的人们却经历着被技术拒绝的痛苦。就比如疫情期间因不会使用智能手机,没有健康码所以无法买票,为探亲不得不徒步走几百里路的老人。
如果Neurolink的推广与应用,使得不安装该装置的人连最日常的经济行为都无法进行呢?如果一个少年科比因不愿安上神经接口而被职业球队拒之门外呢?会不会有一天,不肯安装类似设备的人被视为不法分子呢?
如果真有那么一天,那就不是马斯克所说的“任何一个想要安装它的人都可以安上一个”,而是即使你不想安装,为了参与社会生活,也不得不付钱把它安到自己的脑子上——在技术垄断的时代,人有可能会失去拒绝技术的权利。这并不是危言耸听。
二,脑机接口设备是否会造成不必要的痛苦?
这首先涉及前文所提及的安全问题。如果安全无法得到保障,安全问题不能及时解决,那么必定会给植入设备者造成一系列的痛苦。那么无论这一技术被包装得如何高大上,都是恶的。
此外,除了人体安全、信息安全,要考虑不同的地区将如何利用脑机接口技术。这类神经网络设备一旦被不合理地使用,便会造成大量的不必要的痛苦。比如,如果有人入侵了植入者的设备,轻则产生干扰,造成感知、运动等方面的障碍,重则挟持其身体掌控权,被害人失去人身自由。
如果心理变态利用该装置,为无辜受害者写入大量痛苦信号呢?如果恐怖分子直接黑进机组的脑机接口进行劫机呢?如果战争狂人掌握了类似的神经读写装置,操纵傀儡士兵去执行残忍的军事任务呢?又或者,因为轻信了脑机接口捕捉、提供的数据流,宣判某人/确信自己是低端人口,不配拥有好的生活?
这些都无疑会造成当事人巨大的、不必要的痛苦。
如何避免这些不必要的痛苦呢?一方面,是用技术本身解决可能遇到的安全问题,设置技术、法律壁垒,只允许具备资质的人员使用;另一方面,则应当保持技术发展的某种界限。毕竟,从人类个体的角度去看,个人的意识、情绪感受、自由意志都不能被粗暴地理解为一系列的电信号,而是人之为人的一部分。
三,脑机接口技术能否促进知识的拓展,能否增益人类福祉?
这两个问题的答案,如今都显得有些模糊。
知识拓展——记录、跟踪脑内神经信号的变化,将提供大量的传统医学做不到的追踪数据,必定极大地促进神经科学、脑科学、认知科学、医学等等诸多相关领域新知识的拓展。但反过来,拓展到的新知识是否反而会加强偏见呢?用带着强烈还原论色彩的现代科学思考方式去探究复杂的生物现象,就像在二维时空研究三维物体一样,会损失许多信息,而那所谓的新知也不一定为真。
人类福祉——如果真能用于解决大脑和脊柱的种种问题,治疗一系列神经系统相关疾病,无疑造福全人类,或许也减少临终时的痛苦。如果进一步顺利发展,脑机接口技术也将创造各类新产业的兴起,促进世界经济的繁荣。这些的确都能够增益人类福祉。但如果技术被不合理使用了呢?它也可能使得犯罪更难被发现、自由意志成为笑话、人类社会分崩离析。其不良使用的后果,早在诸多科幻作品如《黑客帝国》、《西部世界》、《升级》中呈现过了。
Neurolink研发出来的技术一定能拓展知识、增益人类福祉吗?要看作为个体、作为决策者、作为群体的人类,在关键的时刻如何做选择。面对大是大非面前应当如何做选择,大概还要靠伦理学人的进一步思考。
04.小结
Neurolink今年的产品演示可谓备受瞩目,广受讨论。但我们也要看到其从简单概念发展为成熟产品所必经的种种技术挑战,人体安全、信息安全、可行性问题等都不容小觑,要保持审慎的态度,保持合理的怀疑甚至恐惧,或者为解决这些问题贡献一份力量。
但与技术层面的挑战相比,更重大的挑战在于人类自身的道德自律。一项技术被研发出来以后,如何合理地使用它?在千条道路中选择相对正确的一条道路,必要满足最基本的道德原则。这种选择也不仅仅是公司的CEO一个人要考虑。作为潜在用户的每个人,在选择、使用一项产品时,都可以问问自己:购物车里的这样商品,是否符合自己心中的道德律?
时间匆匆,不论局外人如何评判马斯克在这场招聘会中做的读脑术演示,Neurolink的百名员工都会继续在前线团队奋斗。而在遥远的将来,当我们回忆起2020年,必定充满感叹。
参考文献
[1] Neurolink. (2020, August 29). Neuralink Progress Update, Summer2020 [Video].Youtube.https://www.youtube.com/watch?v="DVvmgjBL74w"
[2] Dick, Kirby. (Director). (2018). The Bleeding Edge [Film]. Netflix.
[3] Schneier, Bruce. (2004). Secrets and Lies: Digital Security in a Networked World. Wiley.
[4] Whannell, Leigh. (Director). (June1st, 2018). Upgrade [Film]. Goal Pictures etc.
[5] 希克T, 沃恩 L. 做哲学:88个思想实验中的哲学导论[M]. 2018. 北京:北京联合出版公司.
[6] 徐梦秋.科学规范的内涵、类别、功能、结构和形式[J].自然辩证法通讯, 2004(03):14- 18+110.
[7] Jonathan Nolan, Lisa Joy. (Executive Producers). (2016-present). Westworld [TV series]. Bad Robot, Jerry Weintraub Productions, Kilter Films, Warner Bros Television.
责任编辑:张伟东