ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

ChatGPT与保险 1年前 (2023) lida
40 0 0

文章主题:关键词: ChatGPT, 医疗行业, AI辅助, 信息质量

666ChatGPT办公新姿势,助力做AI时代先行者!

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

如果你向 ChatGPT 倾诉过烦恼,它大概率会在开头说,很遗憾听见你感到难过。

当套路一再重复,你会见怪不怪,甚至觉得它在应付。

这也是医生无法替代的原因,只有他们能和患者建立真实、有效的治疗关系。

🌟 AI医疗并非遥不可及,ChatGPT引领创新转型💡 通过其独特魅力,这位智能助手正悄悄颠覆医疗界的常规。它为医生们开启了通往未来诊疗的新通道,让医疗服务迈向了前所未有的高度。👩‍⚕️ 医患互动的全新模式由此诞生,智慧医疗的时代正悄然来临。🌍

不仅懂得多,还比医生更贴心

🌟加州大学圣地亚哥分校近期开展了一项引人入胜的科研项目,他们通过社交平台挖掘了195个真实案例的医患对话记录,作为实验样本。随后,这些互动问题被巧妙地输入ChatGPT模型中,再由专业的评审团进行匿名评估,旨在揭示AI与人类医生之间的专业能力对比。这项研究不仅展示了科技在医疗领域的潜力,也引发了关于人工智能是否会取代传统医疗服务的深度思考。🌟

这些问题多种多样,从「怎么治疗长期咳嗽」,到「吞了根牙签,朋友说我要死了」。

结果让人惊掉下巴。ChatGPT 在信息质量和同理心这两个方面,都打败了人类医生。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

🌟文章改写🌟在此次严谨的研究中,专家的意见无疑对评选产生了显著影响。ChatGPT的独特之处在于它展现出了强大的同理心,仿佛能感受到病人的困扰,常以诚挚的言语表达同情。相较于医生高效直接的沟通风格,它的答案更显耐心和人性化,仿佛面对面交谈般温暖。这种人性化的关怀不仅提升了用户体验,也为技术在医疗领域的应用增添了温情色彩。

当面临关于漂白剂意外进入眼中的担忧时,用户的问题瞬时引发了ChatGPT的专业响应。它以温暖且直接的方式表达关切,随后详尽地指导如何正确处理——从温和的安慰到实际的急救措施。正如医生简洁的回应——’看似无大碍’——所暗示,它建议立即用清水冲洗眼睛,这一建议无疑是安全而有效的。在这个场景中,ChatGPT以专业且人性化的姿态,为可能的危机提供了一份冷静而实用的解决方案。

🌟医生的专业意见无疑是让人放心的解决方案,但这项研究的重点并不在于质疑ChatGPT能否成为医疗界的完全替代者。相反,它巧妙地揭示了这项人工智能技术在远程医疗等环节中的潜在价值——作为一种强大的辅助工具,它可以有效地减轻医生的工作负担,提升医疗服务的效率和便捷性。🌍

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

🌟ChatGPT虽火🔥,但智能仍需医学验证🛡️。未来的合作模式中,AI与医生联手将开启医疗新篇章🚀。医生的专业知识与严谨判断是不可替代的,他们将在诊断的最后关头起到决定性作用🔍。AI的进步旨在辅助而非取代,共同提升医疗服务的精准度和效率🌈。让我们期待一个更智能、更人性化的医疗环境的到来!👨‍⚕️💻

如果更多患者的问题,得到快速、高质量和富有同理心的回答,可能会减少不必要的临床就诊,为需要的人腾出资源。

不难想象,除了效率之外,人类与 AI 的合作也赋权了弱势群体。行动不便的、工作时间长的、负担不了费用的患者,可能更加需要相关服务。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

这样的产品已经出现。今年 5 月,纽约健康技术公司 Belong.Life 推出了 Dave:世界上第一个针对癌症患者的对话式 AI。它只关注癌症领域,基于两个大语言模型,训练数据包括公司旗下 app 七年以来的数十亿数据点。

作为 24 小时待命的 AI,Dave 好就好在全天候回答问题,它可以帮助患者了解自身情况,方便他们之后与医生讨论。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

另外,安慰患者、表现同理心,也是 Dave 的「职业操守」。Belong.Life 联合创始人在接受采访时说:

Dave 减轻了患者的压力水平,也减少了医生教育患者的时间。

来自 Dave 的每条消息,都会声明它由 AI 生成,可能并不总是准确,患者在真正做出决定之前,必须咨询医生。所以,AI 不能代替医生,但成了医患之间一道搭线的桥。

AI 对每位医生个体的作用,也像显影照片般渐渐清晰起来。外媒采访了几位使用 ChatGPT 的医生,方法五花八门,但或多或少和同理心有关。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

有的医生通过 ChatGPT,在解释医嘱、通知坏消息时,更好地组织语言。他们半开玩笑地说自己的用语有时「过于高级」:

即使我们认为很容易理解的词,其实也不是那样。

有的医生需要定期和酗酒群体沟通,他们请 ChatGPT 帮忙列出谈话要点,如果患者没有足够的医学知识,那么就让 AI 根据小学生的阅读水平改写。其中一位医生十分满意 AI 写的开头。这句话乍看平平无奇,全靠真诚打动了医生:

如果你认为自己喝了太多酒,那么你并不孤单。很多人都有这个问题,但是有些药物可以帮助你感觉更好,让你的生活更健康、更幸福。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

其实,很多医生不是不想表达出同理心,而是工作强度和压力太大了,光是应对门诊、远程问诊等需求已经分身乏术,他们自己也陷入倦怠和疲惫。

因此,也有医生请 ChatGPT 帮忙给保险公司写邮件,让对方给自己的患者承保。这其实是一项繁重的重复性劳动,甚至要花上几个小时,但交给 AI 后再微调,只需几分钟即可完成,让医生有更多时间投入救死扶伤之中。

话说回来,医生对同理心的定义,可能和大众不同,并且更加细分。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

「认知同理心」,是指医生识别患者情绪,并在做出决定时考虑这些情绪的能力。与之相对的「情感同理心」,更接近我们所理解的「感同身受」。

《摆脱共情》一书提到了类似的观点,作者布卢姆大致将共情分为两种:「认知共情」与「情绪共情」。他认为做出更好的行为和道德决策,应该依赖认知而非情绪共情。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

更多时候,同理心微妙而复杂,很难划分出楚河汉界,往往同时需要认知和情感同理心。

医生这个职业,既要感性地尊重患者感受,又要理性地展现专业素养,工作压力更是难以为外人道。如何把握共情的尺度,对他们来说是件难事。

AI 无法真正感同身受,但作为结果,它给部分患者带来共情的感觉,或许真能当上为医生分担重负的助手。

小心机械共情的陷阱

AI 的「同理心」不全是陈词滥调,另一端的患者也能够感知到。

《连线》杂志的一则报道提到,部分自闭症患者认为,和 AI 交流是很好的体验,因为它更接近他们的说话和行为方式。

自闭症患者的病征各不相同,但社交互动障碍较为普遍。有些患者会在和别人发生争执时,让 AI 提出建议,努力表达自己的情绪,而不是像以前那样保持沉默。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

对于他们来说,AI 成了新的、宝贵的、独立的资源,随时随地可用,不按小时计费。

然而这只是个例,如何用 ChatGPT 帮助特殊群体,并没有经过严肃的研究,没人知道风险到底有多大。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

所以,Hugging Face 的首席伦理科学家 Margaret Mitchell 建议,遭遇严重情绪困扰的人,应该被限制使用 AI。

我们无法完全控制它说什么,这是一个大问题。

不过,聊天机器人疗法有迹可循,这是一个可以追溯到几十年前的概念。

第一个允许人机之间进行类人对话的程序 ELIZA,诞生于 1960 年代的麻省理工学院,以现在的眼光审视,它其实非常粗糙,通常以问题的形式,重复用户发给他们的内容,让用户觉得自己好像被听到了,参透了人类本质是个复读机。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

事实证明,不管如何简单粗暴,人们都需要机器的「同理心」,哪怕只是错觉。推出 ELIZA 的目的,是为了证明计算机对人类语言的理解多么肤浅。但它反而吸引了大量用户,人们把自己关在房间几个小时,就为了和它说悄悄话。

如今,基于大语言模型的生成式 AI 可以做出更多样的回复了,比 ELIZA 不知道聪明了多少个版本,但它们也存在独有的问题。

偏见、虚假信息、隐私泄露之外,「ChatGPT 们」可能让人掉进「机械共情」的陷阱,也就是回答某类问题时,给出重复的、标准化的模版。

心理治疗师 Daniela Marin 在尝试 ChatGPT 时发现,当你和它说「你想自杀」,它给出的答案几乎和教科书的答案一模一样。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

ChatGPT 踩中了所有得分项,但这毕竟不是考试,Daniela Marin 觉得还不够好。如果你是和治疗师聊天,你会得到更加有意义和具体的回复。

重症监护室医生 Wael Haddara 也认为,同理心本该有丰富的表现形式,不应该只是 AI 生成的文字。

他每周平均和 30 个家庭打交道,发现当家属遭遇至亲去世时,开诚布公的沟通更能减少创伤。同理心也不仅仅是言语,有时候只是沉默着递出纸巾的行为。

不过,像 ChatGPT 这样的聊天机器人,本就是为了通用性设计的。OpenAI 也强调过,ChatGPT 不应该成为心理健康治疗的替代品。

对人类来说,同理心也是一件难事

从以前的 ELIZA,到现在的 ChatGPT,机器的共情,哪怕是虚假和机械的共情,仍然让人们求之不得。

不只是医生和患者,对 AI「同理心」的需要,也存在于更广泛的情感和社交关系里。

通过非人的 AI,人们才能学会怎么更好地和同类沟通。可见人与人的交流,很多时候确实是一件难事。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

AI 聊天应用 Replika 背后的公司,最近推出了一款新的 AI 约会应用「Blush」。它的受众群体很明确:希望更好地处理亲密关系的人。

Blush 像是一个恋爱模拟游戏,用户可以和 AI 创建的、不同性格和背景的 NPC 聊天,和它们建立或近或远的关系,从而加强沟通和恋爱技巧。Blush 不仅会让你聊到牵手和约会,也会涉及分歧和误解,就像现实生活那样。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

▲ 某个「NPC」.

Replika 首席产品官 Rita Popova 强调,Blush 不是用来替代亲密关系的,反而是让你提前演练之后,更好地进入现实世界。

与人交谈,深入了解他们,真的很困难,我觉得解决问题的最好方法就是练习。

Blush 的存在,恰恰提醒了人际交往的尴尬之处。很多用户下载它,就是因为不知道怎么开始和人交谈。帮他们预演的 AI 像是一面镜子,让他们看到自己,以及和别人的交流模式。

和 Blush 类似的,还有在 Tinder 等交友应用出谋划策的 AI 约会助手。Rizz 就是其中一个,它基于你的语气、对方的资料,建议你怎么聊天给对方留下更好的印象。

如果对方也在用 AI,那可能就是 AI 互相搭讪,你和对方成替身了。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

或许有些悲哀,当手机让我们提笔忘字之后,思考如何通过方寸屏幕和人交流,竟然也像写论文一样无从下手。

这可能是因为,技术既是成因也是解药。

雪莉·特克尔的《群体性孤独》谈到,信息过载的社交媒体,既给了我们被陪伴的幻觉,又让我们削弱了对彼此的期待,无须像现实那样付出友谊,结果让我们更孤独了。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

那么看似更有同理心的 AI 呢?它是让人锻炼自己的共情和沟通能力,还是让人彻底依赖它,不走心地表演虚与委蛇?

眼前的情况复杂而微妙——

之前我们认为,涉及情感和社交技能的职业,AI 不容易介入,但它正在建立一种新的关系。

被 AI 需要的领域,恰恰也被 AI 揭露不足,然后提供可能的解决办法。

在更广泛的维度里,AI 和时代共鸣,展现社会信息丰富、但时间和人际关系匮乏的一面。

我们同样可以拿社交媒体比喻,它缓解了短期的孤独,但过度依赖它只会加剧现实的疏离。AI 也是类似,应该将 AI 作为手段,把人作为目的,最终还是要回归人与人的关系。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

文本交流工具 Keys AI 的创始人相信,人们承认自己借助 AI 交流时,也意味着正在努力成为更好的沟通者。

所以,我们需要 AI 的「同理心」,不是脱离人与人的互动,而是重新想象我们如何互动。

当 AI 将词语用统计规律相互关联,人类负责赋予这些概念意义,在职场和生活里与他人建立更好的联系,并关注更为重要的事情。其实技术发展以来皆是如此,我们总要在不断变化的社会关系和情感体验里,探索如何更好地与人相系。

ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年6月19日 pm6:20。
转载请注明:ChatGPT开启医疗新纪元?AI能否超越人类医生的同理心大挑战 | ChatGPT资源导航

相关文章