新的州级法律,如内华达州和伊利诺伊州的法规,正在限制人工智能在心理健康领域的应用。这些法律禁止学校用 AI 替代人类心理顾问,并严格限制 AI 开发者宣传其产品能提供专业心理治疗。然而,这种立法方式被批评为目光短浅,因为它对 AI 的定义过于宽泛,可能影响现有的辅助技术。更重要的是,它完全忽视了数百万人已在使用聊天机器人寻求心理支持的现实,回避了关于“低成本 AI 支持是否优于零支持”以及开发者应承担何种责任等关键问题。最终,这些法律被视为一种逃避现实的做法,未能对 AI 在心理健康领域的实际作用进行有意义的探讨。
立法限制的双重层面
内华达州和伊利诺伊州等地的法律对 AI 在心理健康领域的应用设置了双重限制,分别针对使用者(如学校)和开发者。
对学校的限制: 法律禁止学校使用人工智能来履行学校顾问、心理学家或社会工作者的职能。不过,这些人类雇员在工作中仍可使用 AI 作为辅助工具,前提是遵守学校的相关政策。
对开发者的限制: 法律更进一步,直接规定 AI 开发者不得明示或暗示其模型能够提供专业的心理健康服务。
根据内华达州的法律,AI 系统开发者不得声称: (a) 该系统能够提供专业的心理或行为健康护理; (b) 用户可以通过与系统的模拟人类对话功能互动来获取专业护理; (c) 该系统或其任何部分是心理健康服务的提供者,如治疗师、医生或顾问。
“人工智能”的定义过于宽泛
这些法律的一个核心问题在于,它们对“人工智能”采用了极其宽泛的定义,涵盖了大量现代软件。
这意味着,许多早已投入使用的、基于机器学习的心理健康辅助系统,可能会在营销和应用上遇到麻烦。这些系统包括用于辅助检测以下状况的技术:
- 心理压力
- 痴呆症
- 癫痫
- 智力障碍
- 药物滥用
假装AI心理支持不存在
更深层次的问题在于,这些法律选择了一种简单粗暴的方式来处理 AI 与心理健康的关系:假装它不存在。
立法者似乎在说:“当然,AI 或许可以作为整理信息的有用工具,但只有人类才能提供真正的心理健康护理。”
然而,现实情况是,成千上万甚至数百万的美国人每天都在使用聊天机器人,进行着类似心理健康咨询的交流。这种立法完全忽视了这一普遍存在的现象。
回避了真正棘手的问题
通过简单地禁止,立法者回避了一系列复杂且重要的问题,这些问题关乎技术伦理和现实需求。
- 当人们无法负担专业治疗师的费用时,与一个低成本的聊天机器人交谈,是否好过无人可谈?
- 对于那些正处于精神困扰中的人,AI 辅助的界限应该在哪里?
- 语言模型的开发者应该或可以做些什么,来确保其产品在涉及心理健康的场景中发挥积极作用?
内华达州等地的立法者宁愿不去思考这些问题,而是坚持认为只有持牌的人类专业人士才有资格提供心理健康服务。这不禁让人怀疑,到底是哪些利益集团在背后推动了这项立法的通过。