AI更“像人”,人該怎么看?
2025-06-12 09:46:08? ?來源:廣州日報 責任編輯:孫勁貞 我來說兩句 |
科學家證實,大模型能像人類一樣“理解”事物! 據(jù)《科技日報》報道,來自中國科學院自動化研究所等單位的科研人員首次證實,多模態(tài)大語言模型在訓練過程中自己學會了“理解”事物,而且這種理解方式和人類非常類似。相關(guān)研究成果在線發(fā)表于《自然·機器智能》雜志。 大模型學會了“理解”,這事該如何理解?一直以來,常有觀點認為,大模型只是一只會學舌的鸚鵡,雖然學得惟妙惟肖,但不懂自己在說什么,它們單純依靠統(tǒng)計概率預測下一個token(詞元)。事實,或許并非如此。記得去年底曾看過一篇報道,哥倫比亞大學進行的一項研究表明,隨著大語言模型技術(shù)的進步,這些模型不僅在性能上有所提升,而且結(jié)構(gòu)上也越來越接近人類大腦。此次中國科學院的研究也證明,多模態(tài)大語言模型能夠自發(fā)形成與人類高度相似的物體概念表征系統(tǒng),與人類大腦神經(jīng)活動有著驚人的對應。 AI越來越聰明,這是事實。近年來,從DeepSeek R1到OpenAI o3,深度推理模型迅速發(fā)展。它們被稱為深度推理模型,就是因為能夠像人類一樣思考解決問題的過程。會思考,能“理解”,AI越來越“像人”,人該怎么看? 有人不以為意。因為AI的局限性,實在明顯。比如很多大模型“學富五車”、才思敏捷,卻連“9.11和9.9誰大誰小”都搞不清。有的還會“一本正經(jīng)胡說八道”,東拼西湊、無中生有,被業(yè)界稱為“AI幻覺”。基于此,很多人給人工智能取了個“外號”:人工智障。 有人則如臨大敵。比如前不久,新華社援引英國媒體報道,美國一家研究機構(gòu)公布了一系列針對各AI大模型的測試結(jié)果,其中提到,OpenAI的o3推理模型在得到“關(guān)閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關(guān)閉。AI擁有自主意識了?很多網(wǎng)友心頭一驚,甚至將其視為史無前例的“危險預警”。其實仔細看看相關(guān)報道,研究人員有意制造了倫理困境,AI的“抗命”是為了執(zhí)行另一項指令,與所謂“自我意識”并無關(guān)系。 其實,從AI誕生起,人類的情緒就頗為復雜。尤其近年來,AI技術(shù)突飛猛進,一系列AI大模型驚艷登場,讓人嘖嘖稱嘆又惴惴不安。機器人之父圖靈曾告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。僅就當下而言,“AI覺醒”、對人類不利、妄想統(tǒng)治世界之類的擔憂,或許仍屬科幻范疇。但“AI配音”以假亂真,“AI造謠”張口就來,“AI換臉”愈演愈烈,“AI代寫”無所顧忌……AI不斷進階、愈發(fā)“像人”,意味著人類或許應該更加謙卑、更為警惕、更加清醒。 說到底,AI只是一種技術(shù)工具。AI的B面,同樣是人性的B面;要讓工具成為更好的工具,人就要做更好的人。 |
相關(guān)閱讀:
![]() |
![]() |
打印 | 收藏 | 發(fā)給好友 【字號 大 中 小】 |
信息網(wǎng)絡(luò)傳播視聽節(jié)目許可(互聯(lián)網(wǎng)視聽節(jié)目服務/移動互聯(lián)網(wǎng)視聽節(jié)目服務)證號:1310572 廣播電視節(jié)目制作經(jīng)營許可證(閩)字第085號
網(wǎng)絡(luò)出版服務許可證 (署)網(wǎng)出證(閩)字第018號 增值電信業(yè)務經(jīng)營許可證 閩B2-20100029 互聯(lián)網(wǎng)藥品信息服務(閩)-經(jīng)營性-2015-0001
福建日報報業(yè)集團擁有東南網(wǎng)采編人員所創(chuàng)作作品之版權(quán),未經(jīng)報業(yè)集團書面授權(quán),不得轉(zhuǎn)載、摘編或以其他方式使用和傳播
職業(yè)道德監(jiān)督、違法和不良信息舉報電話:0591-87095403(工作日9:00-12:00、15:00-18:00) 舉報郵箱:jubao@fjsen.com 福建省新聞道德委舉報電話:0591-87275327