关闭
400-6767-071

新闻资讯

您当前的位置:首页 > 新闻媒体 > 新闻资讯

Al+医疗的现状回顾与可能问题分析

作者: 时间:2019-04-19 10:22:16 来源:
摘要: 信息技术是人类在认识自然和改造自然过程中所获取的信息获取、传递、存储、处理等能力,极大地变革我们的思维、生活方式和工作模式,其繁衍出的互联网、物联网、云计算和大数...

 

信息技术是人类在认识自然和改造自然过程中所获取的信息获取、传递、存储、处理等能力,极大地变革我们的思维、生活方式和工作模式,其繁衍出的互联网、物联网、云计算和大数据等技术,推动人工智能的发展进入到繁荣期。人工智能已经成为当今世界大国的国家战略,被誉为第四次技术革命。人工智能的通用性和多功能性,将会像电力的普及应用一样,全方位地提升各个领域的效率。医疗领域更不例外,但任何一项技术本身都有“双刃”效应,需要辩证客观的加以分析,扬长避短,让人工智能的发展始终走在服务人类的轨道上。

一、对人工智能的理解

“人工智能”(ArtificialIntelligence)一词是美国科学家约翰·麦卡锡在1956年达特茅斯学院的夏季研讨会时提出的,也从那里正式起步发展。从字面上来理解,人工智能有四个字组成,分别“人”、“工”、“智”、“能”。我们从“能”、“智能”、“人工”三个层面逐一剖析。

首先,人工智能是“能”。说明人工智能是一种能量系统,不是物质系统和信息系统。能量是一个物理学概念,是物质运动转换的量度。能量是物质在运动过程产生的,有各种不同的表现形式。人工智能是智力运动产生的,可以转移到其它运动方式中,产生其它能量。

其次,人工智能是“智能”。说明人工智能不同于机械能、化学能、热能、电能、辐射能、核能、光能、潮汐能等。它是智力活动产生的能量,是智慧和能力的结合,其结果是产生行为和语言,并以行为和语言来服务于人类的需要。

最后,人工智能是“人工”。说明人工智能的智力能量来自于人工。智力力量是人工、人造的。人的工作是人工智能的源头。人工智能不是人智慧的直接运动,而是模仿人的行为和语言;不是天然产生的,是人类自己模仿自己,是想把人类独有的感觉、记忆、回忆、思维、语言等赋予除人类以外的物体。

综上所述,人工智能是人类通过模仿智力运动过程来实现人脑的认知、识别、记忆、计算、逻辑思维、推理判断等复杂思维功能。从这个角度来看,今天的人工智能在识别、记忆、计算、逻辑思维、推理判断等方面已经达到或超过人脑的能力,但仍然没有触及到智力的起点——认知。这是智能的智力运行机制问题,是揭开人类智慧的终极挑战问题。现今的人工智能的发展得益于信息网络技术收集的海量数据,以控制论、信息论和系统论等作为基础理论,以神经网络、遗传算法、概率论等数学模型为核心,是脑科学研究的最新成果,是数据和算法的胜利!虽然人工智能已经可以模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等),但还不能模仿出人脑的意识、情感、信念、直觉、思考、联想、创造等高等级思维活动,处于浅层次的弱人工智能阶段。在人类自身没有弄清智力本源的问题之前,人工智能的发展将长期在这一阶段徘徊,不会全面超越人类的脑力。

二、人工智能医学运用现状回顾

信息网络条件下,各种智能终端的普及和传感器的运用产生了大量的数据,为人工智能医学运用提供了源源不断的养分,不仅给医疗领域本身带来了一场新技术革命,更是具备了促进医疗服务模式改变的力量。人工智能在运营、预防、检查、诊断、治疗和康复等健康管理环节,以及药品研发、医疗器械生产等方面都有了不寻常的运用。

在医院运营方面,可以利用人工智能检测医疗支出中的浪费、欺诈和滥用行为,计算预约患者的到院率,合理安排医护人员,监测床位使用率,追踪药物和医疗设备状态等,为医院决策者提供更多的决策信息。

在疾病预防方面,2008年谷歌利用人工智能技术通过网络搜索内容来推断流感爆发。今天,人工智能利用大数据和深度学习技术,可以预测阿尔兹海默病风险、心血管疾病风险、癌症风险、精神疾病等。这些预测能够帮助卫生管理机构防控公共疫情,协助个人提升健康水平。

在检查结果判读过程中,人工智能最为成熟和广泛的运用是图像识别。在视网膜图像识别、甲状腺超声影像诊断、肺结节影像检测、CT影像识别等领域,人工智能的机器读片在时间和准确率上已经超过部分医生,甚至是某一群体。作为辅助工具节约医生大量的时间,提高了医生的工作效率,为解决基层医疗资源不足的难题提供了思路。

在诊疗方案的提出上,人工智能还能够模拟医生的思维和诊断的方式、习惯和依据,融合自然语言处理、认知技术、机器学习等技术,充当“人工医生”,可以较短时间内提供出精准的诊断结果和个性化的治疗方案,供医生参考借鉴。2018年,科大讯飞的“人工医生”首次通过国家执业医师资格考试,而且超过了96%以上的人类考生,全科“人工医生”已经开始上岗了。

在健康管理过程中,随着智能可穿戴设备和家庭智能健康检测监测设备的研发和广泛应用,个人健康数据从过去的静态监测变成了动态监测,人工智能便可以从这些动态数据中,分析判断出个人的健康水平,能够对血糖、血压、血脂,用药等方面给予精准的指导,为患者提供便捷化、智能化、日常化的医疗护理和健康指导。

在药物研发上,人工智能的自学习技术能精准分析生物的复杂结构网络,以及微观系统层面各要素之间的复杂关系,给出基因、蛋白质层面的发展变化走向,从而使药品的研发更具靶向性,有助于发现适用于广泛人群和特定人群的药物,从而缩短药物研发周期,减少研发失败,有利于新药的出现。

在医疗器械生产上,人工智能对医疗器械应用全过程中的效果的进行智能分析,让医疗器械的研发和使用上更加符合医疗的实际,更加契合个人的使用习惯。病人定制、医生定制的医疗器械产品有可能出现。一些远程化、标准化、智能化医疗器械的运用会解决外科医生不足的问题,医疗器械的研发、生产和运用更加精准化。

三、人工智能医疗运用的可能问题分析

任何一项新鲜事物的出现,必然会打破原有的结构,扰乱已形成的平衡。人工智能医疗运用确实会给医疗领域带来“意想不到”诸多变革,但是同样也带来过去不曾面临的“纠缠”和“纠结”。

(一)人工智能医疗运用会不会替代人类?

人工智能是人类发明的一项科学技术,是计算机技术的延伸,是计算机实现智能的原理,或制造类似于人脑智能的计算机。人工智能只是人类征服自然的工具,是人类认识和利用自然及其规律的手段,是构成社会生产力的重要部分。人是人工智能的创造者和使用者。人的能力是人进行人工智能研究的前提条件和基础。人工智能的能力与人的能力息息相关,人工智能的升级和迭代与人的能力发展进步相关连。人始终在人工智能的发明和使用过程中处于主导地位。因而,人工智能的医疗运用是置于人的能力和人的主导下进行的,不可能超越人类自我,跨越人类之上,只能部分代替人的能力,增强人的部分能力,尤其是在涉及人类生命健康的医疗行业中,一个小小错误的代价可能是生命或生活功能丧失。无论人工智能的“医疗知识”有多丰富,“技术能力”如何精湛,“诊治水平”怎样高超!它仍然是同核磁、X射线、超声、检验和病理一样,是健康管理过程中的辅助决策工具,最后做决断的是人,这是由技术的本质属性决定的,与技术的功能无关。

(二)人工智能医疗运用会不会丧失自我?

人类通过技术的发明和使用获得了巨大收益的同时,却又让人类付出了代价,损害最明显的是人的价值和自由。工业革命把人类从体力劳动中解放出来后,缺乏运动、高脂饮食、污染排放等开始影响人类的健康。一旦人工智能把人类从脑力劳动中解决出来,体力、脑力劳动双解放,更容易让人类在人工智能面前丧失“自我”,导致人自身、人与人之间、人与社会之间关系的异化,形成一种“病态世界”,人工智能在解放人类的同时又在奴役人性。这种状况的出现不是人工智能的过错,是人类使用人工智能过程中的偏差。人工智能医疗运用更让人们陷入唯“人工智能”论,不信“真人”信“假人”,让机器代替人类作决定,成为机器的奴隶。因而,人类须展现智慧的一面,有意识地去克服人工智能不利的一面,向更智慧的层面迈进。无论人工智能医疗运用有多“医能”,它应该始终是人类改造自然的工具,是促进人类健康和尊严,谋求人类的长远利益而发展的,不能成为人类文明畸形发展的灾难,把人文精神贯穿人工智能医疗运用发展的始末。

(三)人工智能医疗运用会不会存在问题?

人工智能医疗运用离不开数据、算法,以及结论的执行,但每个环节都可能存在问题。一是数据真伪问题。人工智能医疗运用的起点是数据,但数据的来源、记录、整合等方面都可能存在漏洞。如有研究机构指出电子病案系统中80%左右医疗信息是粘贴和复制的,存在着许多疾病信息编码、疾病描述的非标准化等错误。数据的整合也是其中的一个难点,如何将病历、影像、检验报告里的非结构化数据转化为可以识别的结构化数据。医疗机构之间的数据孤岛现象,“私心”问题、全数据库共享权限等均会制约人工智能的发展。二是算法有“偏见”。人工智能医疗运用算法的对象是不是具有代表性,算法开发者、设计者会不会有代码“歧视”和“偏见”。这些看似无关的问题,实际上影响最终的结果,受人的主观意识控制。如保险行业运用人工智能提高某些人群的保额或者拒保某一特定人群。三是过程缺乏科学评价。人工智能医疗运用中的数据、算法本身有没有科学性也是问题,谁来评价这些数据、算法本身是否科学?如果数据、算法本身都存在问题,其结论的科学性就无从谈起。退一步说,就算数据和算法都没有问题,结论有没有科学性,如何评价结论的科学性同样需要科学的评价工具。四是责任边际不易划分。人工智能医疗运用是辅助诊疗工具,最后决策者是人,人承担决策责任。但人工智能医疗运用的结果不同于影像学、检验学、病理学结果,一个是单一机器判读的结果,一个大量数据测量的结果,谁应该承担这一主观性的责任。数据收集者、算法设计者、结论采用者谁应该承担主要责任,尤其是当人工智能结果与人的主观判断结果不一致,且造成严重成果时,责任如何划分?这些责任边际划分的结论也会反向促进或抑制人工智能的发展,需要一个不断完善和健全的法律、伦理等制度保障。

(四)人工智能医疗运用会不会产生危险?

技术是有两面性的,一方面是技术本身的缺陷造成的,另一方面是使用者的不安全使用。人工智能医疗运用同样存在危险。一是信息泄露。个人医疗信息的价值仅限于个人,但相关算法不仅能直接采集个人医疗信息,也会深度挖掘分析看似不相关的数据信息。人工智能在多场景、多平台、多时段的数据收集,以及专业化的数据处理,使得信息主体本身难以查觉和了解,无法控制其个人信息的传播和滥用,个人信息裸露在虚拟世界中。二是反向运用。人工智能医疗运用要有伦理和法律界限,即应以人类的根本利益和责任为原则,以实现人类根本利益为终极目标。但相关技术稍加转化便可以对人类形成灾难,如对疾病基因的筛选可以变成对致病基因的筛选,其作用就千差万别了。三是形成鸿沟。人工智能医疗运用发展需要相对发达的信息网络技术和广泛场景运用为基础,需要超量的资金和科学家团体的不懈努力,但在当前全球经济发展不平衡、技术发展不均衡的环境下,人工智能发展出现了国家化和民族主义倾向,更易形成技术垄断和壁垒,加深了国家、公司、个人之间的技术鸿沟,形成“悬崖”效应,将对人类社会的发展带来许多不确定性的影响。

[向上]