中国物联网行业门户,IOT资讯、企业及产品供求信息发布--新物联
新闻来源:新物联Newiot 整理       发布时间:2021/9/16 10:20:25       共计:140 浏览
加利福尼亚州参议院上周提出了一项法案,该法案将迫使亚马逊披露其仓库中使用的生产力跟踪算法背后的细节;与此同时,Facebook本周因华尔街日报的一篇报道而受到批评,该报道发现它知道自己的 Instagram 提要让一些少女对自己感觉更糟。

这些发展并不一定是针对大型科技公司,而是针对其算法的强烈反对,这些算法使用人工智能 (AI) 来调整个人用户或员工的表现。

在一次新的采访中,曾在谷歌、苹果和微软担任高管的人工智能专家李开复博士解释了新兴人工智能技术的四大危险:外部性、个人数据风险、无法解释相应的选择和战争。

李开复说:“最大的危险是自主武器”,“那时人工智能可以被训练去杀人,更具体地说是被训练去刺杀,”,他是一本名为“人工智能 2041:我们未来的十个愿景”的新书的合著者。“想象一下,一架无人机可以自行飞行并通过面部识别或细胞信号或其他方式寻找特定的人。”



李开复强调:“它将改变战争的未来”,对自主武器的禁令得到了 30 个国家的支持,尽管国会委托的一份深入报告建议美国反对禁令,因为它可以防止该国使用已经拥有的武器。 2015 年,特斯拉首席执行官埃隆马斯克和苹果联合创始人史蒂夫沃兹尼亚克等科技界知名人士以及数千名人工智能研究人员签署了一封公开信,呼吁禁止此类武器。

李开复认为:自主武器将改变战争,因为它们的可负担性和精确性将更容易造成破坏,而且几乎不可能确定谁犯了罪。

“我认为这会改变恐怖主义的未来,因为恐怖分子不再有可能因为做坏事而丧生,”他说。他说:“它还允许恐怖组织使用 10,000 架这样的无人机来执行像种族灭绝这样可怕的事情。”

“它改变了战争的未来,”他补充道。“我们需要弄清楚如何禁止或监管它。”

李开复说,人工智能带来的第二个重大风险是当人工智能专注于一个目标但排除其他问题时会产生意想不到的负面后果。

“当人工智能被告知做某事时,外部性就会发生,它非常擅长做那件事,以至于忘记——或者实际上忽略了——其他可能导致的外部性或负面影响,”他说。 

“因此,当 YouTube 不断向我们发送我们最有可能点击的视频时,它不仅没有考虑偶然性,还可能向我发送非常负面的观点或非常片面的观点,这些观点可能会影响我的想法,”他补充道。

据一位知情人士透露,这种风险可能已经降临在 Instagram 上展示的用户信息流上。 来自华尔街日报的报道 这表明 Facebook 从 2019 年开始的内部研究发现,对于三分之一使用该应用并遇到此类问题的少女来说,Instagram 使身体形象问题变得更糟。



据“华尔街日报”报道,Facebook 的内部报告发现,青少年将焦虑和抑郁率的增加归因于 Instagram。就 Facebook 而言,它的两名研究人员告诉《华尔街日报》,Facebook 正在测试一种方法,询问用户是否需要一种方法来休息一下 Instagram。研究人员还指出,他们的一些研究涉及少数用户,在某些情况下,他们的发现的因果关系尚不清楚。

李开复几十年来一直处于人工智能发展的中心,自从他在卡内基梅隆大学攻读博士后帮助开发了语音识别和自动语音技术。

自 2009 年以来,他一直担任首席执行官 创新工场,一家专注于技术的中国风险投资公司,管理着超过 25 亿美元的资产。

在接受雅虎财经采访时,Lee 列举了最后一组围绕易受攻击的个人数据的人工智能危险,以及无法解释该技术做出的相应决定。 

人工智能做出的决定在生死攸关的情况下尤其重要,例如一个被称为电车问题的思想实验,在这个实验中,决策者必须选择是否转移失控的火车,以免在其路径上杀死许多人,冒着李说,用另一种方法杀死更少的人。

“人工智能可以向我们解释为什么它会做出它做出的决定吗?” 他说。“在驾驶自动驾驶汽车、电车问题、医疗决策、手术等四个关键方面。”

“事情变得很严重,”他补充道。 
版权说明:
本网站凡注明“新物联Newiot 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
您可以扫描右侧微信二维码联系我们。
网站首页 关于我们 联系我们 合作联系 会员说明 新闻投稿 隐私协议 网站地图