扫描打开手机站
随时逛,更方便!
当前位置:首页 > 热点速览

国际研究构建超万张人类图像库 助力AI视觉偏见评估

时间:2025-11-08 02:49:58 来源:中国新闻网 作者:曹子健

中新网北京11月6日电 (记者 孙自法)近日,国际权威学术期刊《自然》发表了一篇关于人工智能(AI)视觉偏见评估的前沿研究论文。该研究由索尼AI团队主导,成功构建了一个包含超过1万张人类图像的数据库,旨在系统性评估AI模型在以人为本的计算机视觉任务中的潜在偏见。

这一名为“公平的以人类为中心的图像基准”(Fair Human-Centered Image Benchmark, FHIBE)的数据库,通过符合伦理规范的数据采集方式,基于用户明确同意的原则获取数据集。其设计目标是为计算机视觉任务提供可靠基准,帮助识别并纠正AI模型中的性别歧视、种族歧视等刻板印象问题。

FHIBE数据库示例图像

本项研究的相关图像数据(图片来自论文)。施普林格·自然 供图

论文指出,计算机视觉技术已广泛应用于自动驾驶、面部识别、医疗影像分析等领域。然而,现有AI模型训练数据普遍存在缺陷:部分数据未经用户同意收集,多通过大规模网络抓取获取,导致模型可能继承并放大数据中的社会偏见。例如,已有研究证实AI模型在性别、种族分类任务中表现出显著偏差。

为解决这一问题,索尼AI团队在FHIBE数据库构建中采取了多项创新措施:该数据库覆盖81个国家或地区的1981名个体,包含10318张标注图像。每张图像均标注了详细的人口统计学和生理特征信息,包括年龄、代词使用、祖先血统、发色与肤色等维度。更关键的是,参与者通过充分知情流程明确同意数据使用,整个过程严格遵循数据保护法规,确保伦理合规性。

研究团队将FHIBE与27个现有同类数据库对比发现,FHIBE在数据多样性、用户同意可靠性方面显著优于其他数据集。其特别包含大量传统上代表性不足的群体数据,且所有标注信息均由参与者自主申报,有效降低了数据采集中的主观偏差。

论文作者强调,FHIBE数据库可作为评估现有AI模型视觉任务表现的重要工具,尤其能揭示传统测试集难以发现的隐性偏见。尽管构建此类合规数据库面临成本高、实施复杂等挑战,但FHIBE为开发更可信、更公平的AI系统提供了关键基础设施,标志着AI伦理研究的重要进展。

(完)