近日,正在申请移民加拿大的法国学者阿德女士(Kémy Adé)被移民部给拒了,背后原因竟然是AI审查出了错。尽管她通过申诉,该案已重新开启审理,但是这起案件给人们带来警示:当AI逐步深入移民部的审核程序,该如何保障程序的准确性与公正性?毕竟,一旦出了错,承担后果的可是一个个真实的人生。
图片来源:X 据本地英文媒体《多伦多星报》报道:阿德是麦马大学(McMaster University)的一名博士后研究员兼客座教师,专攻健康科学领域,拥有法国索邦大学(Sorbonne University)衰老免疫学博士学位。 不久前,她的移民申请被移民部拒绝。信中给出的理由令人难以置信——她被认定从事“布线、组装控制电路、构建机器人面板、编程及故障排除”等技术工作,而这些所谓的“工作职责”与她申报的加拿大工作经验不符。 可问题在于:这些工作与她毫无关系,而在她一年前提交的移民申请中,从未提及任何类似技能。 阿德女士十分不解:移民部是怎么把她的专业技能搞错的——而且是这么明显的错误。 移民部给的拒绝信底部的一段免责声明让她发现了原因。上面写着:内容可能借助生成式人工智能(Generative AI)辅助生成。信息最终由移民官员核实,而人工智能并未直接参与决策云云…… 阿德女士通过律师向移民部门发起了问询。对方坚称,最终决定仍由人工官员作出,AI未参与决策。 然而这个说法并不能令人满意。阿德女士的律师表示:他想不明白阿德作为一直在健康科学领域工作的学者,怎么会被认定从事电子机械行业的。“我无法想象任何一个人类会做出这样的判断……我很想知道‘人类审理官’究竟看到了什么。” 阿德女士的遭遇迅速引起业内关注——因为这也是是外界首次发现,加拿大移民部门在正式拒签文件中明确提及使用生成式人工智能。 巧合的是,就在阿德收到拒签决定前后,加拿大移民部刚刚发布其首个人工智能战略,提出将利用AI“提升效率、优化服务并加强项目完整性”。 其实,据移民部官方公开的信息,自2013年以来,本国的移民系统已逐步引入数据分析与自动化工具,用于识别欺诈、分类申请及加快处理流程。目前,该部门正试验公开的生成式人工智能工具,用于信息整理、研究及分析。 多伦多移民律师齐亚伊(Zeynab Ziaie)直言,这类技术存在“黑箱”风险。 “就像你使用ChatGPT时,它可能会产生‘幻觉’,”她解释说,“同样的输入,它既可能生成拒签理由,也可能生成批准结果。问题是,你无法知道它是如何得出结论的。” 她担忧,将生成式人工智能用于经济类移民审查——这一本就复杂且需要细致判断的领域——可能导致错误频发,甚至动摇公众对移民系统的信任。 麦吉尔大学(McGill University)法学院教授拉索(Jennifer Raso)也指出,尽管当前移民申请积压已高达约一百万宗,加快处理速度确有必要,但过度依赖技术可能带来新的风险。 她提出一系列关键问题:“AI是在什么环节被使用?是做摘要吗?官员是否还会查阅原始文件?翻译是否由AI完成?” “这些问题如果没有透明答案,申请人根本无法知道自己的材料是如何被评估的。” 她还强调,生成式人工智能并不擅长准确总结复杂信息,反而可能增加错误,从而加重人工审核负担。 对于本案的主角阿德女士来说,这不仅是技术问题,更是切身打击。她于2023年持工作许可与家人来到加拿大,如今却因一份明显错误的AI评估面临移民受阻。 “他们必须确保决策是公平的,”她说,“不能依赖这样的工具去做改变人生的重大决定。我现在对这个系统已经没有信心了。” 目前,阿德的律师已正式申请复议,该案件已重新开启审理。 |
电话:647-830-8888|www.66.ca 多伦多六六网
GMT-5, 2026-3-25 04:10 PM , Processed in 0.045347 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.