- 未来三十年,我们将去向哪里?
- 刘兰剑等编著
- 4497字
- 2025-02-18 08:55:44
第四节 科技可能对人类带来的挑战
一、劳动力结构被改变
在未来,人工智能能够代替人类进行各种体力活动以及大部分脑力劳动,这会导致一部分人被迫改变他们的工作,甚至造成失业。人工智能能够在科技和工程中得到应用,能够进行信息处理活动,使从事规划、诊断、理解和决策等工作的人改变自己的工作方式。按照当前技术的发展速度,人工智能最终会替代人类完成大部分工作,并给整个人类社会带来前所未有的冲击。最直接的表现就是在越来越多的领域,人工智能快速超越人类,这也意味着会有大批的人会面临失业的问题。有研究表明,美国注册在案的720个职业中,将有47%的职业被人工智能取代。由于中国人工智能的发展速度较快,这个比例在中国有可能超过70%。同时因为人工智能机器人在手工劳动作业中替代了人类,大大提高了工作的效率,降低了企业的成本。因此,人工智能将会改变现有的劳动力格局,企业对劳动力的需求将会降低,而且这种趋势将会一直持续。可以说,未来人工的成本将会不断上升,而机器人替代人工的成本将会不断下降。
虽然技术发源于人类、受控于人类,但是人工智能机器人在许多方面会超越人类,会替代人类的许多劳动,不过在未来人类会找到更多新的工作机会,人机协同去进行生活和工作。同时,智能机器解放了人类,完成了体力劳动,创造了社会财富,人们就有更多的时间去进行科学研究、艺术创造以及享受生活的乐趣。
二、对科技的过度依赖
科技带来的最大危害就是新的科技被发明出来都会在一定程度上使人类天生的能力发生退化。在21世纪初,新一代年轻人是在电子文章和网络游戏等的影响下成长起来的。相比于大型计算机,新时代的人们使用笔记本电脑更加熟练,他们更喜欢用键盘打字而不是用笔写字,现代人们的写字水平已经不如之前的人们高了,漂亮的手写字体现在不是很常见;环顾周围虚拟的机器,看看屏幕上由机器创造出的社交媒体账号。过去与朋友分享生活、沟通交流等都是依靠写日记和书信,如今变成了在社交软件上分享文字、照片和视频、更新动态;过去写作业遇到困难会去查阅资料、书籍,同时也会有自己的思考,如今变成依靠互联网搜索来直接得到正确答案,经过大脑的仔细思考的机会少了;过去写文章要斟词酌句、研读经典,如今变成了“百度一下,你就知道”。随着技术的不断进步,人们越来越依靠机器和技术,甚至不愿意自己动脑筋思考。然而,正如书本、电影以及社会里不断提醒的那样,计算机毕竟不是人类。机器没有头脑和感情,但是它们会因为人工智能而变得越来越聪明,并且很快就能展现出读懂人心的能力。我们使用这些技术使生活变得更加简单、高效。从小冰到Siri,从Google到百度,从网络购物到自动驾驶汽车,机器已经能够帮我们完成这些单调、机械式的任务。但是在人类解放了双手后,大脑需要记忆的东西可能会变少,这会不会导致大脑的退化呢?毕竟技术的危险之处就是让人类丧失天生的能力。飞机现在可以自动驾驶了,汽车可以被指挥。人类拥有内容丰富的百科全书,不再需要记住那么多知识。我们可以做越来越多的事情,但是随之而来思考这些问题的时间也会变得越来越少。如果我们思考的时间越来越少,又会发生什么呢?同时技术的发展与推广应用,尤其是人工智能技术的不断突破,将会影响到人类的思维方式和传统观念,并使它们发生改变。例如,传统知识一般印在书本、报刊或杂志上,因而是相对固定的,而人工智能系统的知识库的知识却是可以不断修改、扩充和更新的;在未来,如果用户非常相信智能机器的判断及其做出的决策,那么他们就有可能不愿多用脑袋去思考,会因为人类的惰性而变得懒惰,这样就会失去对许多问题的思考;依赖计算器的学生们,经过试验已经证明部分人的主动思维能力和计算能力会有所下降;过度地依赖计算机的建议并不加分析地接受,将会使智能机器用户的认知能力下降,并增加误解。
三、技术失控的危险
(一)人工智能的破坏性
人工智能已经被应用到军事领域。现在已经设计出执行毁灭性任务自驱动武器的人工智能系统。一旦这些武器被用来攻击人类,将会造成极大的伤亡。此外,为了在以后战争中抵抗敌对势力从中阻挠,这些武器的程序将被设计得十分复杂,这在很大程度上削弱了人们对其的掌控力度。一旦发生意外情况很难使其停止下来,加大了技术失控的风险性,会造成很多不必要的伤亡。在未来,随着人工智能技术的不断发展,武器自动化程度越高,技术失控的风险也会随着增加。试想,如果你召唤一辆智能车将你以最快的速度送到机场,它可能不顾一切地严格遵从你的指令,这势必会造成人员的伤亡、交通秩序的混乱以及更多糟糕的情况。
(二)破坏力极强的技术事故
科技的发展已经使世界变成了地球村,在另一方面如果使世界相连接的一些设施和工具被刻意的破坏将会发生什么后果呢?比如航空领域,如果繁忙的国际机场其通信系统和调度系统等被技术高明的黑客进行网络攻击。由于互联网使世界相连接,如果一个机场受到袭击,将会很快在整个全球航空运输网络引发巨大的连锁反应,造成严重的后果;现在Google、Amazon、Apple、Microsoft和阿里巴巴等科技公司在整个社会发挥的作用越来越大。试想一下,如果这些公司遭到攻击,系统被破坏,数据被泄漏,将会给我们的社会带来什么样的后果呢?
(三)基因技术的滥用
2018年11月发生的“基因编辑婴儿”事件引发了热议。在全世界技术滥用的现象并不少见:器官移植技术滥用,浪费了大量的医疗资源,提高了医疗收费,制造了无数“因病而贫”的家庭;干细胞疗法滥用,使顽疾患者雪上加霜,很多人掏空了钱包,还有的人“原因不明”地死了。如果基因技术被滥用将会造成非常严重的后果,毕竟人类21世纪面临的最大风险不是核危机,而是基因技术失控,肆意妄为的基因改造,不仅会毁灭动植物,甚至会毁掉人类自身。犯罪分子如果掌握核心的基因技术并发动大规模的“生物战”,造成大规模的人员伤亡,其威力甚至远远大于核袭击。Microsoft创始人比尔·盖茨就提出过警告,生物恐怖袭击一举杀死三千万人的可能性越来越大,因为现在制造和传播致命病原体,比以往任何时候都更容易。
四、存在算法歧视问题
算法歧视会对人类传统价值观和伦理道德理念产生冲击。算法歧视,简单来讲,就是指算法决策可能产生歧视问题。其原因可能是算法设计者的道德价值取向不良,也可能是受数据的有效性、准确性所影响,甚至可能是机器自我学习的结果。算法歧视的例子并不罕见。比如,Google的图片软件曾错将黑人的照片标记为大猩猩;Microsoft的人工智能聊天机器人Tay,在上线24小时内就被人类“教坏”,成为了一个集反犹太人、性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。如何确保算法设计中的伦理考量将成为一个重要问题。
五、挑战现有的法律形态
(一)对法律原则的挑战
在整个人类社会的法律体系中,平等原则占据了非常重要的地位,其基本含义是指在法律面前人人平等。而机器人的出现则可能产生两种类型的平等问题,对平等原则形成挑战。一种是机器人内部之间的平等问题。例如,不同类型、不同智能化程度的机器人是否完全平等?另一种则是机器人与人类之间的平等问题。机器人与人类之间是否应当平等?如果机器人与人类的法律地位平等,机器人与人类在权利方面是否平等?机器人是否平等享有所有权利,还是机器人只平等享有部分权利?
(二)对权利制度的挑战
对所有权的挑战:随着大数据技术的不断成熟,在未来数字化模型的世界中,人们能够更加幸福地生活,并认为所有数据在全民之间共享,社会能够更加安定和谐,但是在现实中情况可能并不那么乐观。当我们能够了解到邻居的一切时,这也就意味着我们可以掌握他们的通话记录、银行卡密码和行为踪迹。当这种情况真正发生时,我们很快就会失去人类最基本的权利——所有权,将没有什么东西是真正属于自己的。而现实生活中利用非法手段窃取个人信息从而牟利的犯罪事件屡见不鲜。例如,国内一些黑客已经借助人工智能技术让病毒的分发更加隐蔽,甚至让网络诈骗更为精准。他们利用一些非法的手段去窃取他人的财物,侵犯他人的财产所有权。这将给社会带来新一轮的挑战,而且现在防止这种犯罪的措施还不是很完善。在未来,随着技术的发展,这种情况还会变得更加严重,甚至有可能会导致世界秩序变得混乱和功能失调。
对隐私权的挑战:在人工智能时代,个人隐私保护将面临互联网、大数据与人工智能三者叠加的风险,传统社会逐渐走向透明化,在未来的人类社会可能将不再有真正意义的隐私可言。一般而言,除某些国家机关公职人员依照规定公开特定的个人信息以外,任何公民的基因信息、病历资料、财产信息、家庭住址、联系方式、私人活动轨迹等信息都属于个人隐私,应该受到法律的保护。但是,随着智能家居、智能医疗、自动驾驶等智能化产业的发展,人工智能技术逐渐深入社会生活的方方面面,用户在享受智能产品带来便利的同时,其个人信息极有可能被人工智能产品集体性地泄漏。有学者预言,人工智能产品必然会成为未来隐私泄漏的一个重要端口,但是当前我国的法律制度已开始关注相关事项,并逐步制定相关法律,但法律细化程度不足。在这种状况下,就要求通过立法明确智能产品在使用过程中产生数据的性质和权利归属,规范人工智能产品的数据收集和使用行为,同时赋予掌握大量用户信息的智能产品生产商、网络运营商特殊的信息保密义务,切实保障用户能真正享有消除自己个人隐私信息的“被遗忘权”。
虽然科技的发展会对当前社会带来一系列的挑战,但这是新技术发展过程中难以避免的问题。随着新技术逐渐被应用于社会生产、生活的各个方面,我们的生活一定会变得更加便利。对此,我们还是应当保持乐观的态度。在面临挑战时,可以完善技术来应对和解决。可以考虑两个方面,一是在技术上加强风险防控。人工智能技术和大数据技术等具有复杂性的特性,这就意味着人类很难设计出非常完美的程序来管理和运行它们,从而降低技术所带来的风险。而在技术原有的基础上增强其自我监控风险的能力是一个风险防控的好方法,比如科学家在风险防控方面技术上做的一些创新。因为人工智能是基于大数据和运算构建的,为了防止系统出现故障和被人非法操作,所以需要运用技术手段使系统的运行都能被记录、跟踪和审核,这样系统的重新接入和更新就可以人为控制了。并且还通过非常复杂的层层加密和数字签名系统来降低信息泄漏出去的可能性。随着技术的成熟可以开发出专门的人工智能安全管理系统来管理人工智能,因为相比于人类,机器和程序超越了人类的工作强度、难度,它们不需要吃饭和休息,工作的效率与难度、准确率都高于人类,这也是防止技术失控的重要路径。二是在技术中融入伦理和道德选择。科技的发展可能会引发责任和义务问题。我们应该把技术和伦理相融合进行设计,运用技术的手段在机器中预先设定道德标准。在未来,人机进一步融合和人机互动时机器所做出的行为将更符合社会的伦理和道德准则,这样就能很好地防止技术失控并在一定程度上避免人类对技术的不当使用,从而保证技术更好地促进社会的发展。现在科学家可以把人类的道德准则通过编程和算法等技术手段植入到机器的运行指令中,让系统和机器在运行中做出的行为和判断更符合人类的价值取向。
[1] 奇点:随着人工智能的高速发展,机器人自主化智能发展,机器人全面超过人类的时点.