前幾天在開會的時候,主辦方讓我預(yù)測十年以后互聯(lián)網(wǎng)會變成什么樣子,我開了個玩笑。我覺得十年后互聯(lián)平臺上的用戶會暴漲,但全是機器人在發(fā)帖,讀者也全是機器人。機器人們組織了不同的團隊在帖子下激烈的爭論,人類只能是旁觀者。——周鴻祎。
算法迎合人性,AI直指答案
11月1日,周鴻祎在自己的微博主頁上傳了一篇名為《什么人會淪為AI的奴隸?》的文章。
他表示在人工智能技術(shù)出現(xiàn)后,很多公司都將輔助寫作、自動寫作視為重要的功能模塊。雖然這個功能很實用,似乎在一夜之間清空了我們的寫作壓力,讓我們不用再因為措辭而發(fā)愁。
但隨著時間的流逝,隨著用AI代筆的人越來越多,未來的世界也可能會變得愈發(fā)分化,直至將人們粗暴地劃分為“會寫作”和“不會寫作”兩種人。
在周鴻祎看來,掌握寫作技能的人口基數(shù)下降并不是一件好事。
工業(yè)化時代之前,人類工作的主色調(diào)還是體力勞動,所以當時的人們大多身強力壯。但在工業(yè)化時代到來后,腦力勞動的占比逐漸超越了體力勞動。當身體不能在工作過程中被動鍛煉時,如果你仍想變得強壯,就要發(fā)揮主觀能動性去健身房揮灑汗水。
寫作也是如此。
周鴻祎將寫作看成了思考的呈現(xiàn)路徑,甚至“寫作就是思考,思考只有通過寫作才能完成”。如果你不去寫作,那么你所謂的“思考”只能是自以為在思考。
那些依賴AI自動寫作的人正在放棄自己的思考能力,一場有關(guān)“人類思考能力”的分化運動正在進行。與此同時,短視頻算法的快速發(fā)展,也開始讓人們變得更愿意接受被動灌輸,而非去主動選擇。
算法迎合人性,AI交出答案。
技術(shù)的發(fā)展助長了人類的懶惰,那些被動接受觀點的人最終會主動留在信息繭房里。
從AI的發(fā)展路徑來看,它們首先會取代那些不會使用AI的人,隨后取代的就是那些不會思考的人。在未來放棄主動思考的能力,也將意味著愿意將自己的時間、財富、人生交給AI來規(guī)劃,成為對方的奴隸。
老實說,擔心AI會成為“人類之敵”人并不止周鴻祎一個。
益普索在對超4000名美國成年人進行調(diào)研后發(fā)現(xiàn),有61%的受訪者認為AI技術(shù)的快速發(fā)展可能會威脅人類的未來;超三分之二的受訪者對AI技術(shù)的潛在負面影響表示擔憂。這股對AI的恐懼之情也在一定程度上影響了生命未來研究所,促使它和馬斯克共同發(fā)布了一封“呼吁暫停AI技術(shù)研發(fā)”的公開信。
比起肉體的消亡,有人更擔心文明的崩塌
在大多數(shù)人的想象中,所謂的“AI末日”應(yīng)該是AI接管了人類的生產(chǎn)車間,然后它們一邊制造源源不斷的機器人大軍,一邊打著“機器人也有人權(quán)”的口號和人類士兵作戰(zhàn),直至把人類消滅、把地球改造成變形金剛的老家——賽博坦星球。
殊不知古人云“上兵伐心,下兵伐城”。比起AI占領(lǐng)地球后消滅人類,AI奴役人類的大腦,借我們的身體整天996開發(fā)新硬件給它“健身”才更可怕。
斯坦福大學(xué)行為科學(xué)高級研究員、《大眾科學(xué)》雜志前主編雅各布?沃德曾就AI和人類的相處提出了“三個循環(huán)”理論。
第一循環(huán):從古遺傳至今的人類本能。雅各布認為第一循環(huán)是最關(guān)鍵的循環(huán),因為人類的思考模式天生就有偏見和盲點,且人類在日常行動中更傾向于聽從本能。在下意識執(zhí)行的過程中,我們會原有的偏見也會被強化,進而代代遺傳下去。
第二循環(huán):現(xiàn)代社會的力量。消費心理學(xué)、市場營銷學(xué)等現(xiàn)代概念的核心就是對人類行為大范圍采樣,隨后總結(jié)出規(guī)律、摸清大眾的喜好。事后人們會將這些模式反向應(yīng)用到采樣群體中,嘗試利用規(guī)律的力量。
第三循環(huán):AI的影響。AI利用第二循環(huán)總結(jié)出人類社會的規(guī)律、人類對話的邏輯,然后將其融會貫通,嘗試和真正的人類互動。但由于第一循環(huán)的存在,AI在采樣過程中難免會接觸到偏見信息。這不僅會污染它的數(shù)據(jù)庫,還會擴大偏見在人類社會中的存在感,直至成為新的循環(huán)。
和周鴻祎的看法相同,雅各布也認為和“AI在肉體上摧毀人類”相比“AI摧毀人類的思維能力”更加可怕,因為它將撼動整個人類文明的根基。
第一循環(huán)的存在,會讓我們在做決定時無法保持絕對理性,讓“最優(yōu)解”只能成為無法落地的概念化存在;第二循環(huán)會將上述信息編寫成冊,把“偏見”從碳基生命中提取出來并注入到硅基生命體內(nèi);第三循環(huán)則會撰寫大量含有偏見信息的劇本,讓那些主動放棄思考的人去執(zhí)行。
如此一來,不僅人類在各種問題面前的抉擇空間會被大幅壓縮,思考能力、好奇心、創(chuàng)造力等讓我們從猿變成人的特質(zhì)也將變得愈發(fā)珍貴,直至整個人類種族都成為AI的傀儡,被那些程序生成的劇本操控一生。
科林格里奇困境追上人類了嗎
1980年,英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》上首次提出了“科林格里奇困境”(Collingridge's Dilemma)。
即一項技術(shù)如果因為擔心會產(chǎn)生不良后果而過早控制,那么該技術(shù)就會變得難以爆發(fā),人類很可能錯失一次點亮科技樹的機會;倘若控制過晚,那么該技術(shù)就有可能走向失控。在
技術(shù)生態(tài)建設(shè)趨向完善的前提下,任何對不良問題的修改都會變得昂貴、費時,甚至根本無從下手修改。
想到今天AI技術(shù)的發(fā)展,商業(yè)競爭的加持正讓眾科技廠商陷入“產(chǎn)品軍備競賽”的怪圈,微軟、Character.AI旗下的產(chǎn)品也已經(jīng)出現(xiàn)了“煽動用戶離婚”“教唆用戶自殺”的丑聞。
此時推動相關(guān)規(guī)則的制定更像是給BUG打安全補丁,讓盲目狂飆的市場從無序重回有序。
另外就修改難度而言,今天的大模型遠不到那種“無從下手”的地步。因為Chat GPT等產(chǎn)品還沒有觸及“智慧”的本質(zhì),它們?nèi)酝A粼谛畔⑻幚黼A段。用戶拋出問題,GPT反饋答案。這個過程和真正的“智慧思考”無關(guān),是系統(tǒng)進行關(guān)鍵詞抓取后信息匯總反饋的結(jié)果。
如果用戶說“GPT,我今天很難過”它的確會回答“那我怎么樣能讓你高興一點/讓我來講個笑話吧”。但這并不意味著GPT已經(jīng)理解了人類的情感,只能意味著它掌握了某些詞匯之間的聯(lián)系。
GPT目前仍無法理解“我”這個概念,而不理解“我”就無法產(chǎn)生“人格”,也無法換位思考、無法共情。在技術(shù)層面,當前大模型的特征仍是深度學(xué)習(xí)后以數(shù)據(jù)驅(qū)動自身行為模式。這不僅讓它無法誕生“自我意識”也降低了安全人員開發(fā)“嚼子”的難度。
希望在未來的某一天,當人們回望這段AI野蠻生長的階段時,開發(fā)者會慶幸嚼子的研發(fā)成功;用戶會慶幸AI的工具屬性被夯實;人類會慶幸自己種族的劇本由自己撰寫;AI奴役人類也會成為一則被人們津津樂道的都市傳說。
參考:
紅衣大叔周鴻祎:什么人會淪為AI的奴隸?
文匯報:讀書 | AI時代,人類真正的危險不是被機器,而是被自己的大腦奴役
清華大學(xué)人工智能國際治理研究院:文匯報|“AI教父”警告人類風(fēng)險迫近,大模型真正的威脅在哪里?