扫描打开手机站
随时逛,更方便!
当前位置:首页 > 热点速览

国际研究发布超万张人类图像数据库 助力AI视觉偏见评估与修正

时间:2025-11-07 17:51:51 来源:中国新闻网 作者:曹子健

中新网北京11月6日电 (记者 孙自法)国际权威学术期刊《自然》近日发表一篇关于人工智能(AI)视觉领域的重要研究论文,该研究提出并构建了一个包含超过1万张人类图像的数据库——'公平的以人类为中心的图像基准'(FHIBE),旨在系统评估AI模型在以人为本的计算机视觉任务中存在的偏见问题。

这一突破性数据库由索尼AI团队主导开发,严格遵循数据伦理规范,所有图像均通过符合伦理的手段获取并基于用户知情同意。FHIBE不仅可用于评估现有AI模型的视觉任务表现,还能精准识别并纠正性别歧视、种族歧视等潜在偏见与刻板印象,为构建更公平的AI系统提供关键工具。

FHIBE数据库样本图像

本项研究的相关图像数据(图片来自论文)。施普林格·自然 供图

论文指出,计算机视觉技术已广泛应用于自动驾驶、面部识别、医疗影像分析等领域,但现有AI模型的训练数据普遍存在缺陷。多数数据集通过大规模网络抓取获取,未经用户授权且缺乏多样性,导致AI模型可能延续甚至放大社会偏见。例如,某些面部识别系统对不同肤色人群的识别准确率存在显著差异,暴露出严重的算法歧视问题。

为解决这一难题,索尼AI团队构建的FHIBE数据库在数据采集阶段即采取多项最佳实践:该数据库涵盖81个国家或地区的1981名个体,共包含10,318张图像,每张图像均标注了年龄、代词类别、祖先血统、发色、肤色等30余项人口统计与生理特征信息。研究团队通过详细说明项目目的与潜在风险,确保参与者完全知情并自愿同意,整个过程严格遵守全球数据保护法规。这些特性使FHIBE成为评估AI偏见的权威资源。

通过与27个现有同类数据集对比,研究团队发现FHIBE在数据多样性与伦理合规性方面表现卓越。其不仅包含更多参与者自我申报的标注信息,还显著提高了通常代表性不足群体的参与比例。实验证明,基于FHIBE训练的AI模型在视觉任务中展现更低的偏见水平,能有效减少对特定群体的误判。

论文作者总结强调,FHIBE数据库为评估现有AI模型的视觉任务表现提供了全新标准,可揭示传统数据集难以发现的隐性偏见。尽管创建此类高质量数据库面临技术挑战与高昂成本,但FHIBE的发布标志着构建可信AI系统迈出关键一步。未来该数据库将持续更新,为全球AI开发者提供伦理评估基准,推动计算机视觉技术向更公平、更包容的方向发展。(完)