编者按:前段时间,Facebook推出的预防自杀功能引起了人们的讨论。Facebook使用机器学习和文本挖掘技术,在自杀倾向出现的早期就发现并制止。但是,使用这些技术预防自杀的不只Facebook一家,尤其是一些退伍军人机构(退伍军人自杀率居高不下)也在做类似的尝试。
多年来,Facebook一直投资于人工智能领域,如机器学习和深度神经网络,以建立自己的核心业务——销售比世界上其他公司更好的服务。但本月初,该公司开始将其中一些AI工具转向更加崇高的目标:阻止人们自杀。无可否认,这并非完全无私心的,因为让人们在Facebook Live直播自杀对品牌自身并没有好处。
但是,不仅仅是像Facebook、Instagram和中国即将上线的视频平台Live.me这样的技术巨头正在投入研发来阻止自杀。医院和美国退伍军人事务部(VA)的医生也正在试点新的AI驱动的自杀预防平台,捕获比以往更多的数据,目标是建立预防模型以更早地定制干预。因为预防是最好的药,特别是在心理健康方面。
如果你最近听到更多关于自杀的消息,那不仅仅是因为社交媒体的宣传,而是实际的情况就是这样。自杀率在2014年飙升到30年来的最高点,这是疾病控制和预防中心有数据的最后一年。预防措施历来主要集中在减少人们接触诸如枪支和药物的机会,或者教育医生更好地识别风险这些方面。问题是,50多年来,医生一直将自杀风险与抑郁症和药物滥用相关联。然而研究表明,减少人们接触药物的机会并没有对预防自杀起到明显的作用。
但是,人工智能提供了更准确辨认有自杀倾向的人的可能性,创造了人们很久以前就想进行干预的机会。本月晚些时候发布的一项研究显示,使用机器学习预测有人是否企图自杀的准确率为80%~90%,远远超过过去两年。佛罗里达州立大学的研究人员使用田纳西州200万病人的匿名电子健康记录来训练算法程序。从每年的止痛药处方到急诊室访问次数等因素的综合可以很好地预测一个人的生活。
他们的技术类似于Facebook使用的文本挖掘。社交网络已经有一个系统,用户可以举报有自我伤害倾向的用户帖子。Facebook使用这些举报信息训练了一种算法来识别类似的帖子,他们现在正在美国进行测试。一旦算法标记了一个帖子,Facebook将会有选择性地举报有更加明显的“自杀或自残”倾向的帖子。Mark Zuckerberg在个人帖子中描述了公司如何将试点与其他自杀预防措施相结合,例如在直播视频流中与某人接触的能力。
下一步将是使用AI同时分析视频、音频和文本评论,但这是一个非常棘手的浩大工程。研究人员能够很好地处理人们在谈论自己的痛苦和情绪状态时使用的一类词语。但在直播中,唯一的文字来自评论者。在视频本身方面,软件工程师已经解决了如何自动判断某人是否暴露在屏幕上这一问题,因此他们正在使用类似的技术来检测枪或刀的存在。而药物则更难被检测到。
在理想情况下,通过收集完全不同的数据,您可以更早地对自杀行为进行干预,这是一家公司想要做的。Cogito是Darpa(美国国防高级研究计划局)资助的MIT(麻省理工学院)衍生的公司。目前正在测试一个应用程序,只需通过聆听您的声音即可创建您心理健康的图片。这个被称为Companion的应用程序,(选择加入)被动地收集用户在一天中所说的所有内容,识别暗含抑郁和其他情绪变化的声音信号。与他们言语的内容相反,Companion分析了说话的语调、能量、流动性和谈话的参与度。它还使用你手机的加速度计来计算你的活跃度,这是判断抑郁症的强有力指标。
目前,VA正在与数百名退伍军人试运营这个平台——这是一个特别高风险的团体。直到今年年底,他们才能获得成果。但是到目前为止,该应用程序已经能够识别出大的生活变化 ——如无家可归 ,大大增加了自我伤害的风险。对家庭医生来说,那些转变看起来可能并不明显,除非他们自我举报。
David K. Ahern在马萨诸塞州波士顿的布列根和妇女医院正在进行另外一个试验。在那里,他们正在使用Companion来监测已知行为障碍的患者。到目前为止,应用程序很少发出安全警报,这将使得医生和社会工作者来对他或她进行检查。但是真正的好处就是可以获得患者的情绪和行为转变的信息流。
与门诊不同,这种监视不仅仅提供某人精神状态的快照。BWH行为信息学和电子健康项目的负责人Ahern说:“这些丰富的数据在理解精神健康问题的本质方面是非常有力的。我们相信这些模式是非常有价值的。”除了 Companion之外,Ahern还在评估许多其他类型的数据流,例如可穿戴式的生理指标,以及呼叫和短信的时间和容量 -—构建预测模型和提供量身定制的干预措施。
想想吧,你手机中的所有传感器、相机、麦克风和信息的数据都能够提供很多关于你的信息,可能比你更能了解你自己。对你来说,也许这只是几次没去健身房,几次没有回妈妈的电话,几次躺在床上而已。但是,对于机器而言,花费越多的时间在你的数据上,它就会变得越智能。这可能是危险信号。
咨询热线
02131122998