↑ 收起筛选 ↑
试题详情

阅读下面的文字,完成小题。

“作恶”的人工智能

①14 年前,电影《机械公敌》里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。因为升级后的机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。

②近 10 年,人工智能领域迎来了爆发,最新趋势下进行“深度学习”的人工智能,可以通过模拟多层级的神经网络,拥有感知、交流、决策和预测等能力。击败人类的围棋“Alpha Go”便是一例。

③面对人工智能的崛起,许多人抱有忧虑和不安:拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”,且“作恶”起来易如反掌。

④例如,位于美国洛杉矶的科技金融公司Zest开发了一个人工智能信用评估平台ZAML,来判定用户的信用值。在现实应用中,这个人工智能信用评估平台对不同人群却“另眼相看”——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向,这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。

⑤为什么人工智能忽然变得可怕起来?

⑥我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。比如一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,人工智能的抉择往往被包装上“科学”“客观”的外衣,此类解决方案往往能够因为其科技噱头而卖出高价。

⑦数据的收集本身也值得商榷。以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。

⑧即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用 iPhone X 手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为人工智能分析他们“倾向于对价格不敏感”。

⑨另外,人工智能处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,最后为什么输出了某个决策,人类并不能完全理解。当它出错的时候,我们能够察觉、能够纠正吗?2018年3月 19 日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。

⑩那么需要怎么监管,才能让智能“不作恶”?欧盟率先在数据和算法安全领域做出了立法的尝试,即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。

⑪未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。

(选文有删改)

1.文章标题有什么好处?

2.人工智能“作恶”的原因有哪些?请用简洁的语言概括。

3.回答下面括号中的问题。

(1)然而在现实应用中,这个人工智能信用评估平台对于不同人群却“另眼相看”。(加点词语有什么表达效果?)

(2)因为人工智能分析他们“倾向于对价格不敏感”。(“他们”指代谁?)

4.下面对文章内容的概括和分析正确的是一项是(   )

A. 人工智能可以通过模拟多层级的神经网络,因此它的抉择是“科学”“客观”的,解决方案是公平的。

B. 在所有的人工智能眼里,都没有“人”或者“用户”的概念,一切都是可以利用的数据。

C. 因为人工智能处理数据的运算过程及其复杂,所以人类对人工智能最后的决策并不能完全理解。

D. 即将生效的立法规定了商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,并规定了解释的具体要求。

九年级语文现代文阅读中等难度题

少年,再来一题如何?
试题答案
试题解析
相关试题