工艺人工智能

Connect Asia Data learn, and optimize business database management.
Post Reply
jrineakter
Posts: 853
Joined: Thu Jan 02, 2025 7:05 am

工艺人工智能

Post by jrineakter »

“试图将工业人工智能应用到社会影响领域,就像把一辆在亚利桑那州郊区训练的自动驾驶汽车开进欧洲城市中心密集繁忙的街道上,会发生事故。”

首先,工业 AI 模型缺乏稳健性:它们通常无法推广到训练集之外的情况。这在医疗等行业是一个问题,因为医疗的组成和行为会随着时间的推移而发生变化,从而降低 AI 系统的预测质量,甚至可能大幅降低。我们在 Covid-19 疫情初期就看到了这一点,当时疫情造成的突然经济和社会冲击扰乱了许多基于历史数据训练的机器学习和分析模型。

其次,深度学习模型可以有效地生成预测,但不能提供解释。它们从数据中推断出的模式是相关的,而不是因果关系。不幸的是,如果没有对决策的解释,从事公共服务工作的人们就会失去权力,并可能失去理解或挑战高风险决策的权力和能力。解释模型的输出以确定其是否有效也变得更加困难。

道德风险
我们知道,一些人工智能系统可能会在采用它们的组织中加深歧视,例如预测历史上受到歧视的群体更有可能犯罪。

即使是旨在生成公平预测的系统也可能产生不公正的结果。例如,它们可能会优先帮助剥削组织降低成本,而牺牲服务质量。例如,预测性人工智能系统可能倾向于直接实现结果的“针对性干预” (例如,拒绝保释那些预计有很高再犯罪风险的个人),而不是可能通过了解该结果驱动因素的因果知识而进行的更深入的干预(例如,支持首先减轻再犯罪风险的干预措施)。

政治风险
社会挑战的复杂性使得它们难以应对。对于我们想要实现的目标以及实现这些目标的方法存在分歧。在实现可持续发展目标方面,关于技术与行为改变的作用的争论中经常看到这个问题。任何将 阿塞拜疆电话号码数据 辩论偏向特定类型的价值观或干预措施的技术系统都应该谨慎处理。有证据表明,工业人工智能系统倾向于优先考虑某些价值观,例如效率,而牺牲透明度或参与度等其他价值观。部署后,它们可以将这些价值观嵌入组织基础设施和流程中,而这些基础设施和流程可能很难在以后改变。它们还可以集中决策并减少民主辩论、问责和实验的范围。

这些因素共同导致工业化的人工智能系统不太适合价值观多元化、因素多种多样变化的领域。


所有这些并不是说数据科学和机器学习对社会影响领域毫无贡献。如果以不同的方式部署它们并考虑到该行业的背景,它们可能会非常有价值。我们称之为工艺人工智能,它具有以下特点。

它能够处理更小、更混乱的数据,并且像训练模型一样专注于记录、管理和探索。
必要时,它会使用稳健、可解释和可说明的模型。鉴于它所寻求提供信息的许多决策都具有社会性质,它让人类决策者参与其中,而不是让他们的角色自动化。
它寻求使数据和人工智能方法的访问民主化,以便更多不同类型的组织和社区能够部署它们。
其目标不仅仅是提高现有社会影响部门的效率,而且有可能通过改变它们来改善结果并使其更加公正。
它谦逊、开放、协作,承认其他学科和观点的价值,并认识到数据干预有时(通常)不是应对社会挑战的正确工具。
这些想法受到广泛群体工作的启发,包括致力于社会影响的数据科学家、因果和参与式机器学习等领域的研究人员、人工智能的批判性研究、负责任和包容性创新以及数据正义。许多这些想法是为了应对工业化人工智能模型引发的道德风险而提出的,也是为克服可能阻碍我们开发真正通用和值得信赖的人工智能系统的技术障碍而提出的。

与工业化人工智能相比,工艺人工智能可能更慢、更复杂、更本地化、更不可扩展。它还需要更多的人为参与。也许可以将其视为智能增强 ( IA ) 的一个实例,即我们使用机器来提升我们的能力,而不是使它们自动化,而不是逃避深思熟虑、谨慎应对我们时代最大挑战的责任。
Post Reply