AI大战人类-科幻照进事实 (ai大战人类作曲家 新闻)
团体很青睐科幻文学,让我印象最深的作品之一是美国的《终结者》电影,这一系列一共6部,拍摄期间跨度从1984年到2019年,从最早的《终结者1》,到最新的《终结者:光明命运》,情节概括就是人工智能(天网Sk)开展出自我看法试图消灭人类,派遣机器杀手回到过去以消灭未来的人类镇压军首领的故事,整个系列脑洞大开,剧情强烈火爆,深受科幻迷的欢迎,也把人类关于开展的未来构想和担忧搬到银幕,引发迷信界数十年的大答辩。
其实,早在20世纪50年代,迷信家就对人工智能AI的开展提出担忧,担忧未来某一天AI或许会开展出自我看法要挟人类生活。
直到往年3月份,美国马斯克联结超越1000名迷信家宣布《暂停大型人工智能钻研》的地下信,呐喊一切人工智能试验室立刻暂停比更弱小的人工智能系统的训练,暂停期间至少为6个月,信中提到:^……咱们不应该冒着失去对文化控制的危险……只要当确保弱小的人工智能系统的成果是踊跃的,其危险是可控的才干继续开发……,更是将AI的要挟推到幕前。
地下信署名者包含全球各个畛域AI资深专家、迷信家、企业家,明白呐喊暂停更初级AI的钻研并制订关系规定,否则结果或许会很重大。
01AI开展进入慢车道
最近一年的人工智能聊天工具让AI成为全球科技和投资热点,包含百度、腾讯、谷歌等各个公司纷繁开发和推出各自的AI产品,AI开展进入慢车道。
人工智能的开展曾经超越80年,从最早的1943年英国迷信家图灵推出图灵测试来判别计算机的智能水平,可以称之为AI的先驱,到上世纪中期美国政府和军方开发用于推理和言语处置的计算机系统,正式提出AI人工智能概念,再到1980年开局AI进入机器学习和大数据驱动形式,再到近15年来AI开局在各个畛域商业化取得成功,比如智能驾驶、金融剖析、医疗诊断、智能助手运行等,甚至AI被用于帮忙新冠疫苗的开发,大小节俭期间优化效率。
目前出现的自主AI、量子计算、脑机接口、自顺应系统等新技术必将在未来取得更快的开展,进入更多人类社会的运行畛域,推进从科技、经济到工业等各方面开展。
假设依照现有开展速度,有迷信家预测在未来的ChatGPT开展到10.0版本或许出现出现自主看法。AI的开展速度和退化速度超出人类构想和控制,面临失控危险。
02AI的要挟在哪里
AI人工智能技术大大促成人类社会消费劲的提高,未来运行无法限量。然而要挟雷同存在。
值得一提的是,AI畛域最驰名的OpenAI公司CEO在访谈中指出:AI曾经体现出无法解释的推理才干,同时他抵赖AI杀死人类有肯定或许性。
置信大家看到科幻电影中无所不能的AI角色消灭人类的情节都会有一个疑问,AI要挟是存在于虚拟文学的情节,还是真实存在的?
从机器取代人类从事包含金融、财务、制作畛域的上班开局,AI关于人类的要挟曾经出现,再回升到相似于控制核武器消灭人类的深档次担忧。咱们说非我族类,其心必异,更何况是一个不论是才干和后劲都远远高于人类的新事物。
从1997年人工智能深蓝战败国内象棋全球冠军开局,AI曾经在多个畛域超越人类。假设未来出现类人类的AI自主看法,必将引发从哲学、伦理到迷信多个方面的应战。
就像霍金所担忧,人工智能的开展有或许终结人类。虽然目前全全球还没有构成共识,或许出现一个相似于联结国的全球AI治理机构来规范和限度人工智能的研发,然而地下信的出现,把这个疑问推到了整个全球的面前,让这个疑问不能再被逃避。
03科技开展是双刃剑
一方面人工智能技术的开展出现减速,另一方面是全球没无关系的框架和准绳去规范人工智能的开展,就似乎一团体高速驾驶没有系安保带一样,发生渺小危险。
比如科幻小说中驰名的"机器人三定律"(ThreeLawsofRobotics),这是由美国科幻作家艾萨克·阿西莫夫(IsaacAsimov)在他的科幻小说中发明的虚拟规律,如下:
1.机器人不得损伤人类或因不作为而使人类遭到损伤。
2.机器人肯定听从人类的命令,除非这些命令与第肯定律相抵触。
3.机器人肯定包全自己,但前提是不得违犯第肯定律或第二定律。
这三条定律是作家虚拟的情节,事实社会中并不存在,然而假设未来某一天AI有了自我看法,和人类出现抵触,那该怎样办?
马斯克的地下信也只是提出了这个难题,如何去保障人工智能的开展在可控范围内,疑问的答案是什么,目前还没有处置方法。
一方面是AI关于人类社会的渺小推进作用,一方面是关于未来失控的担忧,而利益攸关方的立场并不分歧,关于OpenAI、百度这样的科技公司,AI越弱小,未来的商业前景和收益会越好,然而关于整团体类社会,如何将AI归入可控范围,限度AI的无序开展,不能不说两者存在利益的抵触,还有就是如今面临的是AI管控从0到1的环节:谁来做这个裁判,制订规定口头规定,如何保障口头的效率和结果。
04未来如何开展
一方面AI开展是大势所趋,曾经开局深上天扭转人类社会;另一方面如何舍短取长,将AI开展归入可控范围。地下信所倡导的暂停AI钻研六个月,是关于目前AI极速无序开展的担忧,并没有提出详细处置方法,还须要从科技行业、AI业界到全球各个政府和组织的协同致力,找到应答方法。
毕竟整团体类是独特体,这不是一个国度,一个种族独自的事件,须要集全人类之力。
AI的开展带给人类渺小的冲击,是人类初次面对远远超越自己才干的一个物种和文化,而且这个文化还是人类发明进去的,如何去用开展的目光看待AI科技的未来,去兴利除弊,还须要期待未来的揭晓。
人工智能有多可怕?美国制成AI武器,伊朗科学家死于非命
人工智能,这曾经是一个只存在于“科幻片”中的名词,但是随着我们通讯技术、大数据、云计算等 科技 的飞速发展,AI也越来越被科学家们所重视,全球各大 科技 巨头也在全力攻关AI 科技 。 在我们国内,华为、网络、腾讯等巨头都在为AI而奋战,包括咱们的清华北大等著名大学,也集中了一大批学者和学子在研究AI。 但放眼全球,咱们人工智能的发展并不足以为傲,西方国家已经开始用AI“作恶”了。 谷歌的AI已经可以开始模仿人类打电话,就是说如果你打一通电话过去,对面接线的其实是AI机器人,但是你却难以分辨出来。 谷歌AI不仅拥有非常流畅的人类语言逻辑,甚至还能模仿出我们聊天时发出的各种语气词,真实度颇高。 此外,“AI武器”也成为了各国的研究项目,美国防部有一个制作“半人半机械战士”的方案,目前不知道进度如何;但将AI加入到武器当中,使其更具杀伤力倒是已经实现。 就在前段时间,一名伊朗科学家就死于这样的“AI武器”。 当时伊朗科学家正乘坐在一辆小 汽车 上,但在他的必经之路上却被埋伏了一个“AI杀手”。 这个杀手由“AI+卫星遥控机枪”组成,当它发现目标人物靠近以后,迅速锁定在高速行驶中的小 汽车 中的科学家,开枪击杀。 伊朗一方调查后表示,有13枚子弹从枪口射出,直接将科学家射杀,这其中,还有4枚子弹击中了科学家的保镖。 但不可思议的是,距离科学家仅仅25cm的科学家妻子,却安然无恙!也许你会惊叹于这种AI武器的精准度,居然可以对高速行驶的目标人物进行射击,甚至“不浪费子弹”。 但更令人细思极恐的是,这种AI武器的成本极低、隐秘度极高! 不同于飞机大炮,它们可以轻松地隐蔽在草丛当中,或者闹市中,只等目标人物已出现,它就会以超高精准度进行击杀,即便在闹市中也不会“伤及无辜”,这种技术美已经使用过好几次!也许机枪的目标还太明显,但实际上最先进的AI武器已经可以实现“无人机蜂群作战”。 面对铺天盖地而来的无人机,哪怕穿防弹衣被重重保护也没用。 此外,随着芯片越来越发达、机械越来越小,还可以做出那种“昆虫机器人”,它们本身携带烈性炸药,体积非常小,这样就可以悄悄的潜伏到目标人物身边,甚至藏在你的被窝里等待,随时可以引爆。 人类对AI的研究还处于非常初期的阶段,但仅仅如此我们就已经掌握了非常可怕的“作恶手段”,不难想象如果我们掌握了真正的AI,在欲望的驱使下将出现怎样的混乱。 正因为如此,全世界才会如此争先恐后的发展AI技术,因为很害怕被对手形成碾压的情况。 “ 科技 不作恶”好像只是一种幻想,所以现在的科学家们就已经在探讨AI的使用规范和伦理规范,这种技术被开发出来可能会造福人类,但更有可能会造成巨大危机。
“奇点”来临,人类将同AI融合成新智能人,但要防备纯AI进化呢?
钢铁侠埃隆·马斯克曾撰文称:“我们需要万分警惕人工智能,它们比核武器更加危险!”
霍金则在接受英国广播公司的采访时表示,人工智能会迅速演变并超过人类,他的理由很直白,“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己”。
为何马斯克和霍金会对人工智能如此的恐惧?
因为历史可以告诉未来。
20万年前,智人登上历史舞台,尼安德特人面临的命运只有灭绝。
1492年哥伦布登上美洲大陆,美洲大陆的原住民遭受了血腥的屠杀。
众多的历史事实告诉我们,人类每到一个进化节点,进化后的种族会毫不留情地灭绝自己的创造者。
未来学家雷蒙德·库兹韦尔认为“奇点时刻”到来将终结纯粹的人类文明。
所谓“奇点时刻”指电脑智能与人脑智能兼容的那个神妙时刻。
他预言“2045年”将是人类又一个“奇点时刻”
“强人工智能”时代到来,是带领人类进入更美好的未来,还是丢进历史的废品堆?
强人工智能时代到来,带来的利好消息是:
通俗点说,强人工智能时代将创造出:金刚狼,钢铁侠那些科幻片中的超级人类。
一个非常强大新的物种,拥有非常强大的能力,将带来:财富自由(绝对贫困不再存在)时间自由(青春永驻,永生不老)空间自由(超速旅行)
强人工智能带来的坏消息是:由于强人工智能具有自主设计,自主进化的能力,AI可能会自主进化,由于AI强大的快速迭代能力,进化速度可能远远大于“新智能人”(人机融合)的进化速度,或许会出现《黑客帝国》中那种毁灭人类超级计算机智能。
因为纯粹由AI进化出来的智能,太过强大,新智能人彻底被边缘化,没有用的物种迟早都是要被淘汰掉的。
免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。