我们需要将人工智能与人脑和偏见脱钩
1956 年夏天,10 位科学家在达特茅斯学院相遇并发明了人工智能来自数学,工程,心理学,经济学和政治学等领域的研究人员聚集在一起,研究他们是否可以如此精确地描述学习和人类思维,以至于可以用机器进行复制仅仅十年后,这些科学家为机器人技术,自然语言处理和计算机视觉领域的重大突破做出了贡献
尽管从那时起已经过去了很长时间,但机器人技术,自然语言处理和计算机视觉仍然是当今最热门的研究领域可以说,我们专注于教 AI 像人一样移动,像人一样说话和像人一样看东西
这样做的理由很明确:借助人工智能,我们希望机器能够自动执行诸如驾驶,阅读法律合同或购买杂货等任务我们希望这些任务能够比人类更快,更安全,更彻底地完成这样,人类将有更多时间进行有趣的活动,而机器则可以承担我们生活中无聊的任务
可是,研究人员越来越认识到,以人类思维为模型的人工智能可以继承人类的偏见这个问题在以歧视女性着称的亚马逊招聘算法和美国政府不成比例地惩罚黑人的COMPAS 算法中表现得淋漓尽致无数其他例子进一步说明了人工智能中的偏见问题
在这两种情况下,问题都始于有缺陷的数据集亚马逊的大多数员工都是男性,许多被监禁的人是黑人尽管这些统计数据是普遍存在的文化偏见的结果,但算法无法知道这一点相反,它得出的结论是,它应该复制它输入的数据,从而加剧数据中嵌入的偏差
手动修复可以消除这些偏见,但也有风险如果没有正确实施,善意的修复可能会使一些偏见变得更糟,甚至引入新的偏见可是,最近关于人工智能算法的发展正在使这些偏见越来越不重要工程师应该接受这些新发现新方法限制了偏差污染结果的风险,无论是来自数据集还是工程师本身此外,新兴技术意味着工程师自己将需要更少地干扰人工智能,从而消除更多无聊和重复的任务
当人类知识为王时
想象一下以下场景:您有一个来自各行各业的人的大数据集,跟踪他们是否感染了 COVID标签 COVID/no—COVID 已由人类输入,无论是医生,护士还是药剂师医疗保健提供者可能有兴趣预测新条目是否可能已经感染了 COVID
有监督的机器学习可以方便地解决这类问题算法可以接收所有数据并开始了解不同的变量,例如一个人的职业,总收入,家庭状况,种族或邮政编码,如何影响他们是否感染了这种疾病例如,该算法可以估计一名来自纽约的有三个孩子的拉丁裔护士已经感染 COVID 的可能性有多大因此,她的疫苗接种日期或她的保险费可能会得到调整,以通过有效分配有限资源来挽救更多生命
乍一看,这个过程听起来非常有用,但也有陷阱例如,过度劳累的医疗保健提供者可能错误地标记了数据点,导致数据集中出现错误,并最终得出不可靠的结论这种错误在上述就业市场和监禁制度中尤其具有破坏性
监督机器学习似乎是许多问题的理想解决方案但是人类在制作数据的过程中参与得太多了,以至于无法将其变成灵丹妙药在一个仍然存在种族和性别不平等的世界中,人类偏见无处不在,而且具有破坏性依赖于如此多的人类参与的人工智能总是面临着纳入这些偏见的风险
未来人工智能计算中心运营公司mdash;mdash;;西安昇腾智能科技有限公司;正式上线揭牌
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。