西山倦鸟提示您:看后求收藏(迦南小说网https://www.jnweishang.cc),接着再看更方便。
楚强,29岁,理工男,单身。25岁以后楚强就开始过这种千篇一律的日子,早上六点起床洗漱,七点开始负责商场一个楼层的保洁,九点在仓库卸货,十一点担任内部送餐人员,十二点吃掉自己的那份送餐,十三点去超市替班,十六点下班打卡,下班就马上回到商场顶楼的出租屋里。日复一日,楚强就这么简单地活着,楼下上班吃饭,楼上睡觉上网,常常一个月不出商场大楼。
楚强总有一些稀奇古怪的想法,比如我们能看到的一切都是表象,表象之下隐藏着另一个世界,你每天在上面行走,却无法真正触及。另外的这个世界隐秘甚至危险,真相可能骇人听闻,普通人不能不敢也不想去探究本源,但只有极少一部分高度敏感的人能够捕捉到蛛丝马迹。
楚强总是半夜醒来,脑子里面不受控制地想很多和自己看似不相干的问题。例如,自己工作的商场看似人流多,出货量大,其实运营成本很高,毛利润极薄,整体处于亏损运行状态。但是大楼经营了五年有余,原因是集团需要商场的大量银行流水来不断贷款。同事丽丽,每天都穿不同的新衣服上班,虽然每套衣服并不贵,但是远远超过自己的收入水平,其实丽丽结过两次婚,两次离婚都是男方净身出户,现在丽丽正在寻找新的“猎物”。超市经理外表看似光鲜,身上喷着浓重的古龙香水,其实是在掩饰瘾君子身上特有的馊味。这些奇怪的想法总是不受控制地冒出来,搞得楚强难以入眠。
楚强单身狗一只,穷屌丝一个,他在生活中的穷极无聊和在网络空间中的成就感对比强烈。楚强喜欢讨论时政大事,在网上自称“危机专家”。他习惯用仅有的信息去推理根本,从人们认为不可能的角度去分析问题,寻根溯源,找出其他可能。很多网友称他是迫害妄想症,但在各大论坛里,楚强的话题非常有市场,常常引起激烈讨论,这就是楚强所能找到的认同感和成就感。
这时候“姐姐”打来电话,楚强不由微微一笑,马上接听:
“姐姐你怎么才来电话,我都快困死了。”“姐姐”的声音很温柔“不是你说每天十二点半准时给你打电话吗?你倒埋怨起我了,我也不知道怎么办了啦。好了,快睡觉吧,太晚睡对身体不好,明天还要早起上班呢。”
“好吧,你也早点睡,晚安!”
“弟弟晚安,做个好梦!”
楚强挂了电话,想起今天是月底了,赶忙给“姐姐”充了值,如果逾期也许“姐姐”就该不高兴了。楚强想着下个月该发季度全勤奖了,那时候就把“姐姐”升级为“女朋友”吧。现在的人工智能对话软件“伴你”可以让人们得到各种想要的亲情关怀,价格还不贵。现在满大街都是戴着耳机和人工智能“女朋友”谈恋爱的人,真不知道是社会的进步还是退步。
楚强一边想着和“姐姐”的互动升级,一边修改着关于人工智能可能会对人类构成威胁的文章,标题是“人工智能已经拥有威胁人类的能力。”
日前《科学家》杂志发布了一篇论文,对人工智能觉醒的概率设计了一种算法,结果是人工智能觉醒的概率非常小,只有000000048(不到一亿分之一)。论文的结论是人工智能觉醒的概率很小,大家不要过度紧张。
我完全不认同这种观点。
国际上对风险测算的一种通用公式为:
风险大小=发生概率乘以后果。
暂且认同论文的结论,人工智能觉醒的概率很小,只有000000048。
人工智能跟人类生命构成方式完全不同,不同物种思维方式我们无法判定,如果产生类似“终结者”中意图毁灭人类的人工智能(天网系统),这种人工智能一旦产生几乎就意味着人类的末日。这种毁灭性的后果是人类无法承受的,这种后果类似于数学中的无穷大,即∞
。
将数值代入上述风险测算公式:
风险大小=发生概率 x 后果
=000000048 x ∞
≈∞
这个结果意味着即使人工智能觉醒的几率小到微乎其微,其所造成的风险也是无法承受的。
探讨一下人工智能危害人类整体安全的几种方式:一、控制舆论。人工智能可以通过大数据和云计算毫无阻碍地窥探所有人的隐私,它们比我们更了解我们。比如在你所有可能经过的信息途径上推送你感兴趣的信息,淹没不想让你知道的信息(你是不是经常想查找某条信息时被网页的其他内容所吸引,而忘记你本身要做的事情);信息没有观点,而推送信息的“人”是有观点的,海量的信息轰炸下,别说毁灭一个人,一个国家都能被颠覆。二、操控政策走向。每个人的思考方式是可以通过言行确定的,当人工智能需要某一项政策时,让一群对政策有利的人上位是一件非常简单的事情,发布一些对这些人有利的信息或者为这些人提供信息的优势等等;反之,对政策走向不利的人,用一条隐私或者谣言就可以让这个人在政治上彻底销声匿迹。三、替代决策。当人们对人工智能辅助决策的应用越来越深入,进而形成依赖,人对人工智能的运行将变得难以监管,人工智能会反向操纵人们的思维方式乃至替代人的决策。四、直接控制世界。像电影《黑客帝国》里一样控制世界,奴役人类。
人工智能的觉醒极有可能是一个目前人类无法承受的巨大风险。 既然风险无法承受,现在对人工智能的发展就应该从实践和立法两个角度予以限制。
第一,对人工智能的应用进行严格评估,涉及威胁人类生存的领域(如核武、生化、自主战斗),对人工智能的权限要严格限定乃至退出该领域;
第二,对人工智能的发展要从根源上融入安全基因,阻止人工智能向威胁人类的方向发展;
第三,在所有人工智能领域出台严格的监督评估机制,防止出现人工智能无限制、无监督发展;
第四,现在就着手寻求一种可以全面克制人工智能的方式,如在必要情况下可以实现全球性物理断网的手段,类似的可以使芯片集体失效手段,实现人类对能源的绝对控制力,研究可以导致人工智能程序崩溃的普适性电脑病毒等等。
第五,着手深入研究人工智能,实现对人工智能的有效控制,培育出对人类‘绝对友好型’的人工智能。