中国物联网行业门户,IOT资讯、企业及产品供求信息发布--新物联
新闻来源:新物联Newiot整理       发布时间:2021/9/22 13:30:05       共计:91 浏览

Timnit Gebru 是人工智能伦理方面的领军人物之一。她的研究探索了消除偏见的方法,例如种族主义和性别歧视,这些偏见通过有缺陷的数据和创作者蔓延到人工智能中。在谷歌,她和同事玛格丽特米切尔管理着一个专注于这个主题的团队——直到他们试图发表一篇批评谷歌产品的论文并被解雇。(Gebru说谷歌解雇了她;公司说她辞职了。)现在 Gebru是AI亲和团体Black的创始人,他正在为一个独立的 AI 研究小组寻找支持者。她说,要求 Big Tech 对其产品和做法负责的呼吁不能全部在内部进行。



与谷歌前 AI 道德主管有一个重新思考大型技术的计划有关
格布鲁摄影师:《彭博商业周刊》的 DONAVON SMALLWOOD
我们现在可以做些什么来使人工智能更加公平——不太可能在从抵押贷款到刑事判决的所有方面对美国黑人和其他群体不利?
基线是劳动保护和举报人保护以及反歧视法。我们在没有这种保护的情况下所做的任何事情基本上都是肤浅的,因为一旦你稍微推动一下,公司就会倒闭。那些推动最多的人总是在特定社区中遇到过其中一些问题的人。

从长远来看,AI 需要重新构思的重大系统方式有哪些?
我们必须重新构想,目标是什么?如果我们的目标是为谷歌或亚马逊赚最大的钱,那么无论我们做什么,它都只是一个创可贴。业内有这样一种假设,嘿,我们正在大规模地做事,一切都是自动化的,我们显然无法保证安全。我们如何调节人们在社交媒体上写的每一件事?我们可以随机将您的内容标记为不安全,或者我们可以提供各种错误信息——您希望我们如何处理?

这就是他们的行为方式,就像他们可以从极其不安全的产品中赚到他们想要的钱。他们需要被迫不这样做。

那可能是什么样子?
我们来看看汽车。你不能只卖一辆车就说嘿,我们卖了几百万辆车,所以我们不能保证每一辆车的安全。或者,我们在世界各地销售汽车,因此您无处可抱怨您的汽车存在问题,即使它自燃或将您送入沟渠。他们的标准要高得多,他们必须按比例在安全上花费更多。

具体来说,政府应该做什么?
产品必须受到监管。政府机构的工作应该扩大到调查和审计这些公司,如果你要在高风险场景中使用人工智能,就应该有必须遵循的标准。现在,政府机构本身在不应该使用高度不受管制的产品时。他们在审查难民时使用谷歌翻译。

作为一名移民 [Gebru 是厄立特里亚人,在两国之间的战争期间逃离埃塞俄比亚],您如何看待美国科技公司竞相向五角大楼或移民和海关执法局出售人工智能?

人们必须大声说不。我们可以决定,我们应该把精力和金钱花在如何不让加利福尼亚因气候变化而燃烧,以及如何为人们建立安全网,改善我们的健康和粮食安全。对我来说,移民是一项人权。你要离开一个不安全的地方。如果我不能迁移,我不知道我会在哪里。



您在 Google 的经历是否推动了您组建独立企业的愿望?
百分百。我不可能去另一家大型科技公司再做一次。无论你做什么,你都不会拥有完全的自由——你会以一种或另一种方式被套住,但至少你可以在被套住的方式上有所不同。

有什么事情让您对增加您所在领域的多样性抱有希望吗?谷歌和苹果的劳工组织?
所有的亲和力群体——人工智能中的酷儿、人工智能中的黑人、人工智能中的拉丁裔、土著人工智能——他们在自己之间以及彼此之间建立了网络。我认为这是有希望的,在我看来,劳工组织非常有前途。但公司将不得不被迫改变。他们宁愿解雇像我这样的人,也不愿有任何微小的变化。
版权说明:
本网站凡注明“新物联Newiot 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
您可以扫描右侧微信二维码联系我们。
网站首页 关于我们 联系我们 合作联系 会员说明 新闻投稿 隐私协议 网站地图