人工智能大数据时代下的工程伦理问题探讨
一、引言
人工智能技术以及大数据建设作为二十一世纪新兴技术,给人们带来更便捷的生活,社会中涌现出许多新技术,人与人工智能也越来越密不可分。伦理的本意是人伦道德之理,具体指人与人相处的相应道德准则。而现代科技的发展,使得伦理不仅只限于人与人的交往,当前出现了网络伦理,医学伦理,生物伦理等新的概念,当然了还有人工智能伦理学的研究。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。
二、人工智能时代
人工智能(Artificial Intelligence,缩写为AI)一词,是在1956年的达特茅斯会议上被首次提出来的。经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并以脑科学、认知科学为基础,成为一门新兴的交叉学科,被称为本世纪三大科技成就之一。目前来说,人工智能主要涉及计算机领域,它试图了解人类智能的实质,进而能够生产出一种媲美人类智能的软件系统、机器人、仿生人或者生化人,以更完备的生态以及更强的活力积极改变我们的生活,最后乃至能够全面超越当今人类的“新人类”。
而在当今AI的实际应用上,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。
2019年6月,全国第一个智慧车站在广州塔地铁站建成。广电运通以“AI+大数据”技术助力智慧车站示范工程,为该站提供了智慧安检系统、智能语音服务系统、智能售票机、人脸识别闸机、智能客服中心等系统解决方案。广电运通创新地将安检流程中的“安检+票务”合二为一,乘客可以“刷脸”无感快速过闸。此外,开放式的智能客服中心不仅实现了多项业务的在线自助办理,还能收集分析乘客在站内的消费习惯、通勤线路、服务焦点等行为信息,在智能客服后台形成乘客出行服务个性化需求库。以往存在于PPT上的智慧出行设想成为了实际应用,快速有效推动交通领域从“票”转向“人”的核心场景升级,实现对实名乘客的精准、细致服务,而在其背后做支撑的是一套完整的基于大数据的人工智能系统。
目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。
三、人工智能伦理问题
人工智能的蓬勃发展不但扩大了人类对于技术的恐慌,也不可避免地带来了许多伦理问题,像是自动驾驶汽车产生交通事故的问责问题,医学机器带来的医疗事故归责等由人工智能带来的生产生活上的损害,这些都是具体的问题体现。就我而言,将人工智能的伦理问题暂时归结为以下的三个方面。
1、身份模糊
人工智能的发展后,如何给那些人工智能安排好合适的身份标签,将会是伦理困境之一。
对待一个自动驾驶的软件,人们对待它无法像对待现实世界中,自己在劳务市场招聘来的司机一样,现实中的司机有血有肉,有的脾气暴躁一些,会骂骂咧咧,有的还会在车内吸烟,需要别人禁止。长年累月的相伴下,可能雇主还会和司机称兄道弟,但是和软件不会,软件只会自动开门,自动驾驶,如果需要可以加一些幽默程序,来讲些趣事,但是它们不会被生活上的柴米油盐琐事困扰,它们虽然可以说出来这些麻烦事,但是还是无法被人所认同,可是它对人们的悉心照顾又不亚于那些现实的司机,不能简单地看待它们作为一个可以随用随装的软件程序。同时,智能家居里面的管家系统,替代了类似电视剧里面传统大宅门内的老管家,新的管家们更加无微不至地照顾学生的起居饮食,但是无法定位它们的独特身份,它们的所有记忆可以被当作日志保存下来,即使遭到了破坏也可以及时恢复,它们无法像那些管家们一样,融入所服务的家庭,然后成为其中一员。当前来看,人们还是无法定位这些智能体是作为一款随用随弃的工具,还是将成为一个可以寄托情感的“类人“体。
2、工作取代
第一次工业革命极大提高了生产力,将人类的双手从纺纱机上释放出来,这是它的优点,可是由此失业的人很多。毋庸置疑的是,未来那些工作枯燥,重复简单的工作将会被那些机器人取代,这一批下岗工人本来就是社会上的弱势群体,那么,他们的生活保障由谁负责,或者说,他们莫名地被下岗了,这本来可能就不符合伦理规范。换个方面来说,这对那些需要提高生产效率的企业家,以及提高生活舒适度的消费者来说又有些不公正,他们所追求的是利益最大化,生活满意程度最高,在现有的科技水平之下,不让他们使用这些科技又不符合他们的利益需求,这就导致了那些人工智能的分工困境,哪些工作能做,哪些工作不能被取代陷入两难。有的人建议说:只让人工智能取代那些具有高危险性的工作,这也产生了不公,这些人虽然只是社会的小部分,但是他们的利益却被影响了,生命的利益得到了保证,生存的利益却可能遭到了侵犯。
3、赏罚制度
人工智能的惩罚方法是无法像对待人类一样,轻则监禁,重则枪毙,对那些智能程序的赏罚,没有合适的实施方法,如果以人类的体验标准来看,程序体会不到痛苦的感觉,也享受不到被赞美的快乐,这就使对它们的惩罚只单单变成一种触发条件,在必要的时候不得不触发,没有了相应的作用。总而言之,如何规范人工智能的行为,制定合适的赏罚方案,也是伦理问题之一。
四、总结
作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。
版权归原作者 学而要时习 所有, 如有侵权,请联系我们删除。