您确定要删除吗?

取消
首页 算法大全 应用模型 分析软件 算法学院数据中心 关于本站
在线咨询
400-820-6981
意见反馈
返回顶部

如何迎接人工智能?我们需要伦理算法和道德编程

发布时间:2017-07-06

导读:鲜为人知的是:著名科幻小说作家艾萨克·阿西莫夫一开始并没有在《I, Robot》这部小说中写出著名的“机器人三大定律”。

专家们在呼吁责任,但指望算法能够得出电子伦理这件事合适吗?

凯菲特-巴特菲尔德说:“我需要对我的算法进行交叉检查,或者至少知道如何找出事故发生时的情况。”她是一名专攻人工智能问题的律师,同时也是艾奥斯汀的执行董事。她说,今年3月成立的非营利人工智能智库“道德顾问委员会”是由人工智能公司露西建立的伦理委员会。

”我们需要一种方法来理解人工智能算法在做事情时“思考”的方式。你怎么能对一个病人的家人说,他们因为‘我们不知道是怎么发生的’AI干预而死亡?”因此,问责和透明度是很重要的。让你困惑的是为什么你的车会因为避让一只猫突然转向了一条狗,这并不是唯一需要提高透明度的人工智能问题。

有偏见的人工智能算法会导致各种各样的问题。例如,面部识别系统可能会忽略有色人种,因为AI的训练数据库中没有关于有色人种的足够的面部特征,又比如:带有偏见的人工智能可能会自我强化,从而损害社会。如果社交媒体知道你喜欢看到一种政见的新闻,并且只向你展示这样的新闻,那么随着时间的推移,我们可能会失去批判性辩论的能力。

'J.S穆勒提出了一个论点,如果想法没有受到挑战,那么它们就有可能成为教条。”Erden回忆道,很好地总结了她所说的“过滤泡沫”问题。(穆勒是一位19世纪的功利主义哲学家,他强烈支持基于经验证据的逻辑和推理,所以他很可能不会喜欢和Facebook上的人争论。)因此,如果人工智能创造出了数十亿人,他们不愿意,甚至没有能力分辨彼此的想法,这难道不是一个需要解决的道德问题吗?

另一个问题是与机器人的情感关系的形成。菲尔德-巴特菲尔德感兴趣的是两种不同的范围——儿童和老年人。孩子们喜欢把自己不信任的东西放在身边,这使得他们与人工智能交流变得更容易接受。她担心人工智能机器人可能会让孩子们成为他们产品的理想客户。同样,另一方面,她也在思考人工智能机器人如何为老年人提供照顾和陪伴。

“这是否会让人类没有与人类互动的权利,而只是被机器人照顾?”她说,“我认为这将是我们这个时代最重大的决定之一。”

这凸显了人工智能的一个区别,即算法是如何做到的,以及我们想用它来实现什么。亚历克斯伦敦是卡内基梅隆大学道德与政策中心的哲学教授和主任,他说,推动问题的本质是机器想要做什么。这可能是最根本的问题之一。

“如果机器出了问题,这是有问题的,那么道德编程(即它如何能在道德上提高这一目标)听起来是错误的,”他说,“这很棘手,因为很多都是出于人类自身的意图。”

如果它能提高老年人的生活质量,作为频繁拜访和与家人通话的补充,机器人可能会很棒。但同样,以机器人作为借口忽视年长的亲戚,将会带来相反的后果。


就像从厨房刀到核聚变的任何技术一样,这个工具本身不是好是坏,取决于使用它的人的意图。即使是这样,亚历克斯伦敦也指出,如果有人认为他们用这个工具做得很好,而其他人则不好,又是什么样的情况呢?

对于这些道德问题,我们自己又是清醒的吗?随着人工智能的发展,这些问题已经开始显现出来。我们离智能机器人不远了,目前正在和那些愿意停止怀疑的人进行可行性的对话。

自动汽车厂商正在将狭义的人工智能技术结合起来,生产出能够解决复杂问题的产品。然而,专家警告说,大多数人所认为的强人工智能,即具有模仿人类大脑功能的人工智能,离我们还远。

SteveTorrance是苏塞克斯大学信息学院认知科学研究中心的高级研究员,他花了几十年的时间来思考一个强大的人工智能会产生的问题。什么是意识,而强大的人工智能会有吗?我们是否应该建立强大的人工智能,如果有的话,它会有情感吗?它应该拥有人权吗?

谷歌工程负责人RayKurzweil甚至提出,你能不能创造出许多你自己的意识副本?“

我认为这引发了可怕的问题,”Torrance说。“不止一次,而是千万次,你可以创作出很多个自我。”并且每个自我都可以获得投票的权利。

算法解放!政治人士对这一点很感兴趣。今年1月,欧洲议会投票通过了一项关于人工智能研究和使用监管框架的提案。在许多情况中,它解决了机器人的治疗问题。这一提议,虽然仅为人工智能的一个可能的法律框架,但也可能会带来一些法规,让机器人拥有一种类似企业人格的地位。