斯坦福教授:机器正在“劫持”我们的思想
- 2019年09月09日
- 来自: 全球专家资源管理和运营商
迈克尔·斯奈德是斯坦福大学基因学系主任,基因与个人医疗中心负责人,功能基因组学及蛋白质组学领域的权威专家。他的实验室是全球首个将大规模功能基因组学应用到任何有机体的实验室。
赫塔拉·麦斯可是未来医疗学家,医学极客,麦斯可博士是医学未来学家研究所(The Medical Futurist Institute)所长,德布勒森大学医学和科学双料博士,研究科技如何使医学和医疗保健领域的愿景成为现实。Webicina.com常务董事和创始人,这是第一个为患者和医疗专业人员免费提供与医疗健康领域相关媒体资源的服务的平台。他的研究成果已被CNN.com、世界卫生组织、《自然医学》《纽约时报》《英国医学杂志》等众多媒体和机构广泛引用。
人工智能在改善医疗保健方面的潜力是无可争议的,问题是如何成功地将其集成到我们的医疗保健系统中。要做到这一点,我们必须克服技术、医疗方面的限制,监管上的障碍,缓解群众在思想上的一些担忧,并时刻防范过度推销技术的倾向。
数字化健康是传统医疗技术的文化变革
我们需要定义数字健康,数字健康意味着医疗保健领域发生了质的变化,改变了医疗保健的本质。在过去的几年里,无数颠覆性的技术创新淹没了医学领域,但这种变化的实质不是技术上的,而是文化上的。
20世纪90年代,当个人电脑被广泛使用时,电子健康应运而生。当这类计算机可以连接到网络时,就出现了远程医疗服务。社交媒体网络的兴起为医疗2.0和健康2.0提供了空间,而移动电话和后来智能手机的普及则唤醒了移动健康。但是从2010年代开始,颠覆性技术出现的速度对病人和病人的照顾者都带来了质的变化。
我们将这一新现象称为“数字健康”,并将其定义为颠覆性技术如何向照顾者和病人提供数字和客观数据的文化转型,在这里,医生和病人的关系是对等的,可以进行共同的决策和民主化的护理。
只有承认相关的文化挑战和满足病人的新需求,技术的使用才能带来更好的健康结果。这就是为什么我们需要这个定义作为承认我们周围变化的一部分原因。
数字健康提出了具有挑战性的问题
随着人工智能、机器人、虚拟现实/增强现实、远程医疗、3D打印、便携式诊断、健康传感器、可穿戴设备等数字技术的兴起,医疗保健的整体结构以及患者和医生的角色将出现根本性改变。
传统医疗保健的转变导致了一些严肃的伦理考虑,并以前所未有的方式向决策者提出了挑战。谁应该能够获得健康数据?如果雇主或保险公司想从其雇员直接对消费者的基因检测结果中收集数据,这是合法的吗?如何防范有人侵入了医疗设备呢?我们将如何处理医疗机器人?如果它在手术中犯了一个错误,那又是谁的责任呢?
无论有多困难,医疗专业人员和决策者都应该比技术领先一步。他们必须承担起引导病人使用无数数字卫生技术的角色,只有当他们自身的医疗理念是最新的和开放的,用技术缔造的数字健康模式才有可能成为现实。一方面,他们必须确保病人不会求助于未经证实的服务或技术解决方案,另一方面,他们必须让病人作为合作伙伴参与设计护理和决策。
由于颠覆性技术具有从医生那里夺走重复性和单调任务的潜力,他们将能够将他们的注意力集中在病人身上,医生能更好地成为数字健康的指南。此外,医疗专业人员还能够回到最基本的医疗保健。
数字人文精神与医疗保健
不仅要把病人放在保健中心,而且要把病人放在卫生技术的中心,以一种更普遍的方式,这就是数字人文主义的意义所在。人类不应通过利用人的弱点和将控制从他们手中夺走,所有这些数据不能只是单纯为大科技公司的利益服务,从而导致人们的利益被损坏,而应加紧行动,停止在技术上贬低人类、在社会中制造或扩大差距、或无视多样性。以下是一些关于数字人文主义如何在医疗保健中展现的想法和原则。
(1)技术与人类:谁有控制权?
谷歌、Facebook、Twitter、亚马逊、YouTube和其他公司:多年来,我们一直听说它们如何重塑世界,但“注意力经济”带来的有害影响仍未得到足够重视,尽管有大量迹象表明,它们对社会的危害有多大。
系统正在崩溃,万维网的创始人蒂姆·伯纳斯·李几年前就是这么说的。他强调,在数字化带来前所未有的机遇的同时,也带来了前所未有的危机。比如,引起部分领域的网络垄断,由社交媒体策划的极端主义观点和行为的兴起,“过滤气泡”和回声室的形成,除此之外还伴随着隐私的丧失,以及数字监视的传播。
蒂姆·伯纳斯·李
在线公司正在开发一种令人上瘾的技术,并试图不惜任何代价吸引用户的注意,甚至利用人类的弱点和利用我们最糟糕的心理缺陷。据统计,平均每个人每天会看手机150次,每次我们接到消息通知,大脑就会释放出大量的多巴胺,就像赌徒得到的奖励信号一样令人上瘾。当他们把老虎机手柄往上拉的时候,他们是喜欢的吗?你是否倾向于长时间阅读符合你兴趣的新闻?他们创造了你自己的过滤气泡,你再也不用面对相互矛盾的意见了。他们把最疯狂的想法摆在你面前。
在每天观看时长超过10亿小时的YouTube里,有70%来自推荐,并不是来自用户主动的寻找,但YouTube将视频放到了用户面前,因为他们的观看会导致网站上的互动时间延长。用户还会勤奋地点击下一段视频,加入推荐的Facebook群组,或者允许数十个网站发出通知。现在,谁能控制我们的注意力?
(2)人工智能、智能算法和算力
你可能会说,这只是技术发展的一个小裂痕,我们有先进的机器人,虚拟现实,增强现实,人工智能,而社交媒体的形成方式没有这样的影响。然而,如果你把智能算法看作是机器人的控制机制,或者VR/AR体现了一个沉浸式或交互式的智能软件程序,你会发现我们必须担心的终极技术是智能算法和人工智能。
有一种观点认为,这种人工世界中的制度,加上来自最大科技公司的压倒性人工智能和采掘激励,正导致人类弱点的被利用和人类思维方式的降级。当我们正在更新我们的技术,我们的机器,我们正在劫持我们的思想,制造沉溺于屏幕的“僵尸”。
这听起来很可怕,我们不应该让它发生,但我们能做些什么呢?我们有什么样的解决办法来违背科技公司的利益及其产品固有的偏见?解决办法是数字人文主义。我们应该重建我们的社会制度和人工智能算法,以反映这种人道的态度。
一个需要系统响应的系统性问题
这也是维也纳数字人文主义宣言概述,特别强调什么应该是未来技术发展的基础。我们研究了这些原则,并思考了它们在医疗保健方面的意义,以及它们如何适应医学。数字技术的设计应促进民主和包容。在医疗保健方面,这应该是指任何人都可以获得的技术和超越社会、金融或教育障碍的解决方案。
保护敏感病人信息应被视为高度优先事项,甚至比“常规”数据更为重要。正如大量基因和基因组数据的出现一样,未经授权获取这些健康信息不仅意味着危及患者目前的状况,而且还会影响他们的未来。
必须建立在广泛的公共讨论基础上的有效的规章、规则和法律。具有可能影响个人或集体人权的后果的决定必须由人类做出。医疗保健中的自动决策系统应该只支持人类的决策,而不是取代它。
人工智能重新设计医疗保健面临的六大挑战
现在已经有很多关于人工智能在医疗保健重新设计中的应用:它帮助医疗专业人员设计治疗计划,并为每个病人找到最合适的治疗方法。它帮助重复、单调的工作,这样医生和护士就可以专注于他们手头的实际工作,而不是忙于简单病症和行政事务的“车轮战”。人工智能可以智能更新医生收件箱中的电子邮件,让医生随时看到自己想看应该看到的东西。人工智能也能帮医生在几秒钟内找到某种疾病最新和最相关的科学研究。它的变革力量完全可以让它在未来变得和听诊器一样重要,成为现代医学的象征。
人工智能现在已经在几家医院中有了很好的例子:Google DeepMind早已启动了与英国国家卫生服务机构的合作伙伴关系,以改进用数字解决方案提供医疗服务的过程。再比如IBM的Watson。然而,不能否认,我们一直都面临着一个问题,那就是我们如何将人工智能的巨大潜力转化为日常生活。在我们了解了医疗保健方面的人工智能之后,我们应该对障碍有更清晰的认识。
(1)AI的技术局限性。
在许多情况下,“人工智能”一词可能具有误导性,因为它意味着一种比目前先进得多的技术。目前的技术,通常意味着各种机器学习方法,最多能在各个细分领域实现人工智能,它正以令人难以置信的速度发展。这些智能程序在特定任务中击败人类,如IBM的超级计算机深蓝色在国际象棋上获胜,但不像人类世界冠军,这些算法也不能驾驶汽车或创造艺术。解决这些其他任务需要建立在其他领域的专业程序,这是一个巨大的挑战。现在,计算机在理解图像和视频以及自然语言处理框架中的文本的能力有了不可思议的增长。前者现在被广泛应用于医疗保健领域,例如在医学成像领域,不仅仅是物理方面的成像,包括感性上的情感分析。但这也只是人工智能的第一阶段,现在完全可以做到从文本块中识别模式并收集主题,或者从语句中推导整个文本的含义,但让一台机器从有限的经验中抽象出概念,并在各领域之间融会贯通时,我们还没有接近这样的人工智能水平。
(2)医疗限制
为了避免过分夸大这项技术,目前AI在医学中的局限性也必须得到承认。比如在放射学的图像识别中,就可能会存在潜在的偏差。图像研究的框架往往起源于美国,或者将算法本身概念化的框架包含了工作组的主观假设。此外,相关算法的预测和预测能力是固定在以前的案例中的,也就是说,在药物副作用或治疗耐药性的新案例中,它们可能是无用的。
另一方面,将病案精简和标准化,更容易使算法具有一定的意义,但这同样又是医院将AI引入医院管理工作的又一大缺陷。在许多医院里,医生仍然在病人的病历本上书写“狂草”。如果连写这些笔记的人都不能在两周后认出自己当时写了什么,计算机又该如何理解这些笔记呢?
(3)道德挑战
人工智能和AI医疗和技术限制仍然比伦理和法律问题更容易克服。如果一个聪明的算法犯了一个错误,没有在肺部X光片上发现癌变结节,谁应该来为这个错误负责呢?如果要建立相应的安全规章制度,又该怎么制定?如果我们想安全可靠地进入更高一层的人工智能阶段,这些复杂的伦理和法律问题就应该得到解答。此外,从人工智能的第一阶段到第二阶段的发展过程中应该谨慎和逐步地实施,以便为规划潜在风险和不利因素提供时间和空间。独立的生物伦理研究小组以及医疗监督机构应密切监测这一过程。
(4)更好的监管
FDA批准了第一个用于心脏成像的基于云的深度学习算法,然而,有关人工智能的规定通常落后于或根本不存在。随着技术的进步,也许在未来5至10年内才会出台相关的规则。但事实是,这些规则应该走在技术浪潮的前面,按照他们与其他行业利益相关者制定的原则和道德标准,指导在医疗保健领域实施人工智能的过程。此外,他们应该推动公司把负担得起的人工智能解决方案摆在桌面上,并始终把注意力放在病人身上。政府和决策者也应该帮助建立人工智能的使用标准,从最小的单位(医疗专业人员)开始,直到最复杂的单位(国家一级的医疗系统)。
美国食品药品监督管理局
(5)误解和夸大
过度夸大人工智能的能力,通过营销策略和过于简化的媒体表述,无助于破坏人工智能如何为医疗保健做出贡献的健康形象。这也增加了困惑和误解的迷雾,当我们想要成功地将这项技术应用到我们的医疗系统中时,这些误解需要被消除。机器学习、深度学习、智能算法或其他有关人工智能的术语和概念的定义需要仔细处理。它在医疗保健方面的影响也是如此。
(6)人类排斥
对人工智能根除人类的恐惧与有关人工智能为医疗专业人员工作而来的夸张言论同时存在。连史蒂芬·霍金都说全面人工智能的发展可能意味着人类的终结。埃隆·马斯克也同意这个观点。据说人工智能取代了放射科医生的工作, 机器人正在超越外科医生的技能,也正在制药业从事多项工作。人工智能带来的恐惧是可以理解的,因为我们中很少有人真正理解这项技术是如何工作的。当我们不明白的时候,我们倾向于拒绝。更重要的是,如果思想领袖或媒体也倾向于夸张和极端地对待这个问题。虽然习惯这项技术需要时间,但我们建议每个人都要开诚布公,熟悉日常生活中所使用的人工智能。
以航空自动驾驶仪为例,这项创新并没有取代真正的飞行员,而是增加了他们的任务。在非常长的飞行中,打开自动驾驶仪是很方便的,但是当你需要快速判断时,它们是无用的。所以,人和机器的结合才是成功的解决方案。在医疗保健方面也是如此。如果不对人性有一个清晰的理解,我们就会迷失在科技丛林中。这就是今天正在发生的事情,但我们希望,通过尽快应用这些原则,让人类重返驾驶舱,我们能够减轻技术的负面影响,真正达到颠覆性创新为人类服务的程度。
“大师”由他山石和网易研究局联合出品。全球顶级专家内容合作洽谈,敬请联系:danawang@tashanshi.net