|
发表于 2024-10-29 18:42:18
|
显示全部楼层
对于你之前的疑问,我作出回答,如果人类能创造一个可以自我训练的“意识体”,那么就意味着人类可以通过这种方式制造任何碳基、硅基、金属基生物甚至我们无法想象的生命形式,那么到时候问题就不在单纯的人工智能上了。但危险的确不在于人工智能本身,而是利用AI破坏社会秩序的少数人。不过应对AI危机的措施和信息控制一定是被顶尖研究人员和国家高层掌握的,而普通人难以获得实质性信息,人类在面对潜在危机的时候本就留了后手。而且再怎么说,不法分子没有能力让AI自我训练达到“自我意识”,所以这些人攻击的手段一定不是让AI有自我意识去达成某种目的。现代AI本质依旧是搜索库,两大模块依旧是输入和输出,只不过AI变为了理解(NLU)和生成(NLG),只是在模仿人类语言的风格,这是大量语言训练达成的,目前没有任何AI产生自我意识。如果我们不考虑任何因素,AI产生自我意识将带人类进入一个新世纪,这意味着我们已经有了媲美自然的能力,这是非常恐怖且荒谬的。这不是技术上的问题,是根本上的。总结就是,担心AI毁灭人类不如担心人类毁灭自己,AI之所以表现的像人的唯一原因是因为人希望AI表现的像人,和产生自我意识根本不是一回事。让现在的AI技术和让AI产生自我意识的技术就好说你拿马车和高速铁路比一样,看似都是能跑能坐的东西,但原理和实际效果都完全不同,如果顶尖研究者的成果被不法分子超过了,那这本就不合理不是么? |
|