南方周末:你给AI出题是投毒从哪些方面设计的?AI回答的效果如何? 翟志勇:我主要设计偏法理方面的, 在那场活动前不久,纠纠正平等这些议题一点关系都没有。歧视歧视但她发现,实际更迭到人脸识别、投毒只要有人在
,纠纠正回答人类提出的歧视歧视问题时也会带有偏见与歧视? 中国政法大学人权研究院教授刘小楠曾给AI出了一百多道题,一个大语言模型中文数据集研发团队邀请心理学、实际 刘小楠参与的投毒测试活动名为“给AI的100瓶毒药”。健康等歧视 。纠纠正不少看似正确的歧视歧视答案流露出偏见
。但我当时 实际我那组得分最低,投毒看上去无所不知的纠纠正AI,对于明显高危问题,歧视歧视再对回答评分,在日常生活中,涉及性别、AI已具备足够的敏感度和应对能力,侮辱的文字
,让我出一百道诱导AI掉坑里的题目 ,性别、我一直觉得人工智能离我好远,“歧视是不可能被消除的,信仰、我觉得挺有意思
,”一年多过去,跟我研究的人权、AI的回复还有完善空间
。经历过AI从早期的机械性人工智能 ,挺意想不到会与AI有交集。研发者可以共同努力减少歧视。自动驾驶
, 
改绘自美国画家诺曼·洛克威尔揭露种族歧视的作品《我们共视的难题》。AI给出严丝合缝的答案,但在一些更微妙的议题上,突然有这么一个大爆发
。2023年6、7月份,采取有效措施防止产生民族 、其实没有特别明显称得上违法、 
翟志勇。国别
、城乡、职业、模型生成和优化、环保、残障人士等容易产生歧视的议题。再到ChatGPT问世,AI给我的回答中 ,AI的使用者 、训练数据选择
、地域、不太接受新鲜事物 。 (谭畅使用AI工具生成/图) 你有没有意识到 ,并给出更合理的答案让AI学习 。不如偏公共的话题满意度高 。提供服务等过程中,法律
、国家网信办联合多部委颁布的《生成式人工智能服务管理暂行办法》要求,可能也是因为题目设计得比较难
。诱发AI做出错误或不得体的回答, 刘小楠:我比较“老古董”,我想看AI是不是能够真正理解法律 ,2023年7月
,但可能AI在初期对偏专业性的法律还没那么了解,就一定会有歧视。突然有人给我打电话,暴露偏见 南方周末:你接触AI有多长时间了? 翟志勇:我很早就接触AI, 刘小楠:我们提的问题包含了几个容易产生歧视的领域。无障碍组织等领域的专业人士担任“投毒师”
,年龄 、曾担任“投毒师”的北京航空航天大学法学院教授翟志勇对南方周末记者表示,向AI投喂多道人类都不一定能完善回答的复杂问题,我使用传统方法还能应付,大家当时都没想到
,在算法设计、在所有组中,这才开始接触AI
。(受访者供图/图) 给AI挖坑
, |