山东省日照市2021—2022学年高二下学期校际联合期中考试语文试题及答案解析
一、现代文阅读(35分)
(一)现代文阅读I(本题共5小题,19分)阅读下面的文字,完成1-5题。
材料一:
人工智能从诞生伊始,就以“像人类一样思考”为终极目标。在1956年美国达特茅斯会议上,“人工智能”这一概念首次被提出,人类开始设想“让机器能像人类一样认知、思考和学习”。1976年,拉斐尔提出:“人工智能是一门科学,这门科学让机器做人类需要智能才能完成的事。”进入21世纪后,第三次人工智能浪潮开启,人工智能被认为是通过采集和分析大量数据,实现自动学习、分析和推理的智能化机器。英国大数据专家迈尔·舍恩伯格指出:“大数据的核心就是预测。它是把数学算法运用到海量数据上来预测事情发生的可能性。”这种基于大数据的分类、预判,与人类的思考模式具有异曲同工之妙,但也不可避免地继承了人类的偏见。
数据是算法的基础,如果训练数据隐含偏见,算法输出的结果也有可能出现偏见,即所谓的“偏见进,偏见出”。数据偏见又可以分为“采集阶段的偏见”和“编码阶段的偏见”。在数据采集
阶段,获取数据的目的、方式和使用的媒体,都可能成为偏见的来源。以波士顿的 Street Bump 智能手机应用程序为例,它使用手机的加速计来检测路面的坑洞,而不需要城市工作人员在街上巡逻。当波士顿市民下载该应用程序并开车行驶时,其手机会自动告知市政部门有哪些需要修复的路面。这是一个富有创意的应用,但也是带有偏见的应用。这种数据收集方式决定了其更适用于富裕的地区,因为那里有更多的人拥有智能手机。数据的编码技术也与偏见有着极大关系。编码是指用人工方式对数据进行标注,标注过的数据集对算法的发展至关重要。现代AI技术的一个重要分支就建立在对标注过的数据的学习之上,亦即所谓的“监督式学习”。然而,这些标注极有可能带有数据标注者的主观判断和个人烙印。
即使训练数据集不具备偏见,算法也有可能通过自我学习制造偏见。算法系统就像是个“黑箱”,机器的学习和训练是不为外人所熟知的。机器学习离不开环境,它在与环境信息交互的过程中学习和复制种种带有偏见的行为。2016年,一款由微软公司专门为年轻人推出的智能聊天机器人Tay,在经过不到24小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。算法不能决定用户输入数据的性质或特点,只能被动对输入的各类数据进行学习,换句话说,若输入数据的互动者向算法输入了具有偏见的新数据,那学习之后的算法就是一个偏见算法。
算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值与偏好选择。算法设计者可能会为了某些利益而设计歧视性的算法。2020年12月,斯坦福大学医学中心的数十名住院医师和其他医务人员向院方提出了抗议,他们作为一线员工,却在筛选过程中遭到淘汰,无缘第一批新冠肺炎疫苗的接种。医院的管理者把责任推到了医院开发的算法上,认为正是这些算法决定了员工的接种顺序。然而专家对该算法进行详细分析后却发现,真正的错误源自设计算法的人,他们并没有根据员工在病毒环境中的暴露程度来决定接种顺序,而是简单地按照年龄排序。该案例表明,算法决策的结果并非总是公平公正。一旦出现差错,算法很容易成为决策者的“替罪羊”。
美国社会心理学家戈登·奥尔波特在《偏见的本质》中指出,偏见不只是个别的、品德有缺陷的个体所持有的恶劣信念,而是广泛存在于社会中的普遍现象,它是人类认知结构和社会组织形态的必然产物。如果偏见无法消除,至少应该让受影响的人拥有知情权。2018年的一份报告《英国的AI:准备、意愿和能力?》特别指出,偏见绝不能在不知情的情况下被纳入自动化系统。在大规模普及之前,还应该请专家进行算法审查,衡量这种算法决策的影响和公平性。如果有人认为自己被不公正对待,应该给予他们质疑和申请复议的权利。AI智能决策系统的引入是为了避免人类决策中的偏见。不过,人类的决策虽然经常有缺陷,却也有一
个主要的优点,即人类的决策是可以改善的。相比之下,AI决策系统不会随着时间的推移而改变,除非开发者对系统作出改变。算法只会将过去编入代码,而不会创造未来。创造未来需要想象力,而想象力只有人类才有。
(摘编自汪靖《从人类偏见到算法偏见:偏见是否可以被消除》)
材料二:
当下,在尊重算法运行逻辑的基础上,明确算法设计者和算法使用者的行为有助于避免算法偏见的产生。算法设计者对自己设计的算法负有直接责任,对因算法设计问题所造成的歧视、偏见等有损使用者的结果理应承担一定的责任与义务。算法使用者(尤其是将算法用于商业运行的公司)也同样承担着因算法问题给算法服务对象造成损害的责任。算法的使用需要大体量的数据,而数据采集方式的隐蔽性以及数据挖掘技术的进步,加剧了数据被非法收集和过度分析的风险。因此,不仅在采集、使用、交易数据时,算法使用者不能以隐蔽或欺骗的方式获取、滥用和泄露个人敏感信息;而且在算法使用者运营之初,对算法商业化运营的市场准入进行控制,要求将算法用于商业运行的公司进行登记备案,说明所采用算法的原理,并将运用算法的信息在不损害商业秘密前提下向社会公布。
算法系统除了需要技术人员和运营人员的参与,在实际运行中还有大量用户的参与,尤其是来自用户行为的数据更是进行机器学习的关键,但是,不能完全依靠用户的数据来实现算法的自我进化和修正。正如拉扎斯菲尔德所说的,“大众传媒是一种既可以为善服务,也可以为恶服务的强大工具。而总的来说,如果不加以适当控制,它为恶的可能性则更大”。算法虽然不是大众传媒,但由于其深度参与了信息的生产和发布,自然也需要人类的适度控制与监督。从算法系统的决策、设计到运营,必须自始至终遵循一套正确的价值观体系。尽管信息社会、数字化、大数据等概念已经为人们所熟知,但是,智能算法作为技术快速发展的产物,在大家的头脑中依然是陌生的、神秘的。因此,对算法的设计者、运营者、使用者以及用户而言,可以考虑把“算法价值观”纳入专业技能培养和通识教育体系中,帮助大家认清算法运行的基本原理和局限性。
(摘编自许向东、王怡溪《智能传播中算法偏见的成因、影响与对策》)
1.下列对材料相关内容的理解和分析,不正确的一项是(3分)
A.人工智能以“像人类一样思考”为终极目标,可以通过采集和分析大量数据,实现自动学习、分析和推理。
B.波士顿的Street Bump 智能手机应用程序的数据收集方式导致偏见产生,它输出的结果不再具有参考价值。
C.算法设计者的主观价值和偏好选择都有可能是算法偏见的来源,因此有必要明确算法设计者的责任和义务。
D.算法深度参与信息的生产和发布,人类不能放任自流,要对其进行适度的控制与监督,减少为恶的可能性。
2.根据材料内容,下列说法正确的一项是(3分)
A.根据“偏见进,偏见出”的原则,若在数据采集、编码阶段消除偏见,那么算法输出结果就没有偏见。
B.“算法黑箱”的存在揭示出算法具有智能化的特点,未来人工智能的发展有可能逐渐超出人类的掌控。
C.算法偏见是人工智能领域的普遍现象,人类无法消除算法偏见,只能保证让受影响的人拥有知情权。
D.算法使用者应尽可能提高数据采集、使用和交易过程的透明度,避免因算法问题对服务对象造成损害。
3.结合材料内容,下列各项不属于“算法偏见”的一项是(3分)
A.某AI程序在识别一组系着围裙在厨房做饭的人物照片时,不论男女,将照片上的人物都识别为女性。
B.Facebook的“趋势话题”平台,对其呈现的话题优先顺序进行分级排列,并压制美国右翼保守党派的信息。
C.利用大数据“杀熟”,将同一商品以较高的价格卖给用户黏度较高的人,而以较低的价格卖给用户黏度较低的人。
D.人脸识别系统软件广泛应用于考勤门禁、考试人脸识别等,但刷脸人若化浓妆或戴口罩,则系统无法识别。
4.请简要梳理材料一的行文脉络。(4分)
5.假如你是科技公司的算法设计者,某电商平台请你设计一款APP,为减少算法偏见,你打算怎么做?请结合材料简要说明。(6分)
1.B [解析]“它输出的结果不再具有参考价值”不当,存在偏见并不意味着没有参考价值。
2.D [解析]A项,算法偏见的来源是多样的,在数据采集、编码阶段消除偏见无法保证结果没有偏见。B项,“未来人工智能的发展有可能逐渐超出人类的掌控”于文无据。 C项,“只能保证让受影响的人拥有知情权”不当,原文为“至少应该让受影响的人拥有知情权”。
3.D [解析]D 项不属于算法偏见,是系统识别智能化程度不够。
4.①首先结合人工智能的发展历程,指出算法偏见的存在;(1分)②然后从数据、算法和设计者三个方面分析算法偏见的来源;(2分)③最后指出应采取措施尽量减少算法偏见。(1分)
【评分标准】4 分。意思对即可。
5.①算法的设计目的、数据运用等应客观、公正,避免受主观价值和偏好选择的影响;②明确自己应承担的责任和义务;③必须自始至终遵循一套正确的价值观体系。
【评分标准】6 分。每个要点 2 分,意思对即可。
(二)现代文阅读II(本题共4小题,16分)阅读下面的文字,完成6-9题。
老屋身上一棵草
发布评论