Kalluri及其团队的进一步调查揭示了这种偏见并非孤立事件。稳定扩散和DALL·E等工具常常依赖于刻板印象,例如将“非洲”与贫穷或将“穷”与深色皮肤联系起来。在某些情况下,这些偏见甚至被放大。例如,从提示某些职业的图像生成的结果几乎将所有清洁工都描绘成有色人种,所有空姐都描绘成女性,比例远远超过现实中的情况。
AI生成图像中的偏见问题并不新鲜。研究表明,媒体机构、全球卫生组织和在线数据库使用的图像通常对性别和种族存在偏见。AI模型是在这些有偏见的图像上进行训练的,这些图像随后会影响它们生成的内容。这可能导致刻板印象的延续和AI生成图像中的多样性不足。
解决这个问题至关重要,特别是随着AI生成图像在各种场景中的越来越广泛的使用,从网站到医疗宣传手册。一些研究人员致力于教导用户如何更好地利用这些工具或改进训练数据的筛选。然而,这个领域充满了挑战,包括对“正确”结果的不确定性和大多数图像生成器的专有性质。
减少偏见的一种方法是撰写更好的提示。例如,添加鼓励多样性的短语可以帮助减少性别偏见。然而,这并不总是奏效,有时甚至可能加剧偏见。另一种解决方案是允许用户通过提供更具代表性的图像集来指导结果。然而,这给用户带来了不公平的负担,特别是那些在数据集中代表性不足的用户。
像OpenAI这样的公司声称已经实施了技术,以创造更多样化的图像生成工具,但这些系统的细节通常没有披露。改进训练数据集的筛选也是另一种途径,但这需要耗费时间和金钱。用于删除不需要的数据的自动过滤机制也可能产生意想不到的影响,例如删除少数群体的个体创作的内容。
最重要的步骤是开放AI系统,以便可以识别和解决偏见。这需要人类参与到筛选过程中,并且需要透明地公开用于训练AI模型的数据集。类似欧盟的AI法案的法规也可能在规范AI工具的开发方面发挥作用,促使更多的开放和责任。
AI生成图像中的偏见问题是一个复杂的问题,反映了更广泛的社会刻板印象。解决它需要采取多方面的方法,包括更好的用户教育、改进的数据筛选以及AI开发者更大的透明度和责任感。只有这样,我们才能希望创建多样化、包容性和反映我们生活的世界的AI生成图像。