原標題:d/acc:oneyearlater
作者:Vitalik,Ethereum創(chuàng)始人;編譯:0xjs@金色財經(jīng)
大約一年前,我寫了一篇關于技術樂觀主義的文章,描述了我對技術的熱情以及它能帶來的巨大好處,以及我對一些具體問題的謹慎,這些擔憂主要集中在超級智能AI上,以及如果技術以錯誤的方式構建,它可能會帶來厄運或不可逆轉的人類無能為力的風險。我這篇文章的核心思想之一是 :去中心化、民主化、差異化防御加速主義(decentralizedanddemocratic,differentialdefensiveacceleration)。加速技術發(fā)展,但要區(qū)別對待,重點關注提高我們防御能力的技術,而不是提高我們造成傷害的能力,以及去中心化權力的技術,而不是將權力集中在代表所有人決定真假善惡的單一精英手中。防御就像民主的瑞士和歷史上準無政府主義的贊米亞(注:美國著名社會學家JamesC.Scott研究東南亞提出的Zomia概念,贊米亞核心在于難于被統(tǒng)治),而不是像中世紀封建主義的領主和城堡。
在那之后的一年里,我的理念和想法已經(jīng)成熟了很多。我在80,000Hours上談到了這些想法,看到了很多反響,大部分是積極的,也有批評性的。這項工作本身正在繼續(xù),并取得成果:我們看到可驗證開源疫苗的進展,人們越來越認識到健康室內空氣的價值,CommunityNotes繼續(xù)閃耀,預測市場作為信息工具的突破之年,政府ID和社交媒體中的ZK-SNARK(以及通過賬戶抽象保護Ethereum錢包),開源成像工具在醫(yī)學和BCI中的應用,等等。秋天,我們舉辦了第一個重要的d/acc活動:在Devcon的“d/acc發(fā)現(xiàn)日”(d/aDDy),一整天都有來自d/acc所有支柱(生物、物理、網(wǎng)絡、信息防御以及神經(jīng)技術)的演講者。多年來一直致力于這些技術的人們越來越了解彼此的工作,而外界人士也越來越意識到更大的故事:激發(fā)Ethereum和Crypto的相同價值觀可以應用于更廣闊的世界。
Devcon上d/acc活動最積極的收獲之一是d/acc這個傘狀結構成功地將來自不同領域的人們聚集在一起,并讓他們真正對彼此的工作感興趣。
創(chuàng)造“多樣性”的活動很容易,但讓具有不同背景和興趣的人真正相互聯(lián)系卻很難。我仍然記得在中學和高中被迫觀看長歌劇的記憶,我個人覺得它們很無聊。我知道我“應該”欣賞它們,因為如果我不欣賞,那么我就會成為一個沒有文化的計算機科學懶漢,但我并沒有在更真實的層面上與內容產(chǎn)生聯(lián)系。d/accday根本沒有這種感覺:感覺人們實際上喜歡學習不同領域的不同類型的工作。
如果我們想要創(chuàng)造一個比統(tǒng)治、減速和毀滅更光明的替代方案,我們需要這種廣泛的聯(lián)盟建設。d/acc似乎確實取得了成功,僅此一點就足以說明這個想法的價值。
d/acc的核心思想很簡單:去中心化和民主化的差異化防御加速主義(decentralizedanddemocraticdifferentialdefensiveacceleration)。建立將進攻/防御平衡轉向防御的技術,并且不依賴于將更多權力移交給中央集權機構。這兩者之間存在著內在聯(lián)系:任何一種去中心化、民主或自由的政治結構在防御容易時都會蓬勃發(fā)展,而在防御困難時會遭受最大的挑戰(zhàn)——在這些情況下,更有可能的結果是一段人人反對所有人的戰(zhàn)爭時期,最終實現(xiàn)強者統(tǒng)治的平衡。
d/acc的核心原則涵蓋許多領域:
在我去年的文章中,d/acc特別關注了防御技術:物理防御、生物防御、網(wǎng)絡防御和信息防御。然而,去中心化防御不足以讓世界變得更美好:你還需要一個前瞻性的積極愿景,看看人類可以利用其新發(fā)現(xiàn)的去中心化和安全性來實現(xiàn)什么。
去年的文章確實包含了積極的看法,表現(xiàn)在兩個地方:
針對超級智能所面臨的挑戰(zhàn),我提出了一條不剝奪權力就能擁有超級智能的途徑(這對我來說遠非原創(chuàng)):
今天,要將AI打造為工具,而不是高度自主的智能體
明天將利用虛擬現(xiàn)實、肌肉電信號和腦機接口等工具在人工智能和人類之間建立越來越緊密的反饋
隨著時間的推移,最終的結果是超級智能成為機器和我們緊密結合的組合。
在談論信息防御時,我也順便提到,除了試圖幫助社區(qū)在攻擊者面前保持凝聚力、進行高質量討論的防御性社交技術之外,還有一些進步的社交技術可以幫助社區(qū)更容易地做出高質量的判斷:pol.is就是一個例子,預測市場是另一個例子。
但這兩點與d/acc的論點似乎脫節(jié):“這里有一些在基礎層創(chuàng)建一個更加民主和有利于防御的世界的想法,順便說一下,這里有一些關于我們如何實現(xiàn)超級智能的不相關的想法”。
然而,我認為實際上,上面所說的“防御性”和“進步性”d/acc技術之間存在一些非常重要的聯(lián)系。讓我們擴展去年文章中的d/acc圖表,在圖表中添加此軸(同樣,讓我們將其重新標記為“生存與繁榮”),看看會出現(xiàn)什么結果:
不同的人有著截然不同的AI時間表。圖表來自黑山的Zuzalu,2023年。
我發(fā)現(xiàn),對我去年文章最有說服力的反對意見是來自AI安全社區(qū)的批評。該論點是:“當然,如果我們有半個世紀的時間才能獲得強大的AI,我們可以集中精力打造所有這些好東西。但實際上,我們很可能還有三年的時間才能實現(xiàn)AGI,再過三年才能實現(xiàn)超級智能。因此,如果我們不想讓世界被毀滅或陷入不可逆轉的陷阱,我們就不能 只加速好事的發(fā)生,還必須減緩壞事的發(fā)生,這意味著要通過強有力的法規(guī),這可能會讓有權勢的人感到不安。”在我去年的文章中,我確實沒有呼吁任何具體的策略來“減緩壞事的發(fā)生”,只是含糊地呼吁不要建立有風險的超級智能形式。因此,在這里,值得直接回答這個問題:如果我們生活在最不方便的世界,人工智能風險很高,時間表可能還需要五年時間,我會支持什么法規(guī)?首先,對新法規(guī)持謹慎態(tài)度
去年,加州提出的最主要的人工智能監(jiān)管法案是SB-1047法案。SB-1047要求最強大的模型(那些花費超過1億美元進行訓練,或微調超過1000萬美元的模型)的開發(fā)者在發(fā)布之前采取一些安全測試措施。此外,它還規(guī)定,如果人工智能模型的開發(fā)者不夠謹慎,他們要承擔責任。許多批評者認為該法案是“對開源的威脅”;我不同意,因為成本門檻意味著它只影響最強大的模型:即使是LLama3也可能低于門檻。然而,回頭看,我認為該法案有一個更大的問題:像 大多數(shù)法規(guī)一樣,它與當今的情況過度擬合。在新技術面前,對訓練成本的關注已經(jīng)顯得脆弱:最近最先進的Deepseekv3模型的訓練成本僅為600萬美元,而在像o1這樣的新模型中,成本正在從訓練轉向更普遍的推理。
其次,最有可能真正對人工智能超級智能毀滅場景負責的參與者實際上是軍隊。正如我們在過去半個世紀(及以后)的生物安全領域所看到的那樣,軍隊愿意做可怕的事情,而且他們很容易犯錯。人工智能軍事應用正在迅速發(fā)展(見烏克蘭、 加沙)。政府通過的任何安全法規(guī)默認都會豁免本國軍隊以及與軍方密切合作的公司。
盡管如此,這些論點并不是我們放棄和不采取任何行動的理由。相反,我們可以將其作為指導,并嘗試制定出最少引發(fā)這些擔憂的規(guī)則。策略一:責任
如果某人的行為造成了可訴諸法律的損害,他們可能會被起訴。這并不能解決來自軍隊和其他“凌駕于法律之上”的行為者的風險問題,但它是一種非常通用的方法,可以避免過度擬合,并且通常 因為這個原因而受到自由主義傾向經(jīng)濟學家的支持。
迄今為止考慮的責任主要目標是:
用戶——使用人工智能的人
部署者——為用戶提供AI服務的中介機構
開發(fā)人員——構建人工智能的人
讓用戶承擔責任似乎最符合激勵機制。雖然模型的開發(fā)方式與最終使用方式之間的聯(lián)系通常不清楚,但用戶決定了人工智能的具體使用方式。 讓用戶承擔責任會給人工智能帶來強大的壓力,迫使人們以我認為正確的方式開發(fā)人工智能:專注于為人類思維打造機甲套裝,而不是創(chuàng)造新形式的自我維持智能生命。前者會定期響應用戶意圖,因此不會導致災難性行為,除非用戶希望這樣做。后者最有可能失控并造成典型的“人工智能失控”場景。將責任盡可能靠近最終使用位置的另一個好處是,它可以最大限度地降低責任導致人們采取其他有害行為的風險(例如,閉源、KYC和監(jiān)視、國家/企業(yè)勾結以秘密限制用戶,例如取消銀行業(yè)務、封鎖世界大部分地區(qū))。
有一種經(jīng)典的論點反對將責任完全歸咎于用戶:用戶可能是沒有太多錢的普通人,甚至是匿名的,沒有人能夠真正為災難性的傷害買單。這種論點可能被夸大了:即使有些用戶太小而不需要承擔責任,但人工智能開發(fā)人員的普通客戶卻不是這樣,因此人工智能開發(fā)人員仍然會受到激勵去構建能夠向用戶保證不會面臨高責任風險的產(chǎn)品。話雖如此,這仍然是一個有效的論點,需要加以解決。你需要激勵管道中擁有資源的人采取適當?shù)闹斏鞔胧,而部署者和開發(fā)人員都是容易被攻擊的目標,他們仍然對模型的安全性有很大的影響。
部署者責任似乎是合理的。一個常見的擔憂是,它不適用于開源模型,但這似乎是可以控制的,特別是因為最強大的模型很有可能是閉源的(如果它們最終是開源的,那么雖然部署者責任最終沒有多大用處,但也不會造成太大傷害)。開發(fā)者責任也有同樣的擔憂(盡管對于開源模型,需要對模型進行微調以使其執(zhí)行一些最初不允許的事情),但同樣的反駁也適用。作為一般原則, 對控制征收“稅”,本質上說“你可以建造你無法控制的東西,或者你可以建造你控制的東西,但如果你建造你控制的東西,那么20%的控制權必須用于我們的目的”,這似乎是法律體系的合理立場。
一個似乎未被充分探索的想法是將責任歸咎于管道中的其他參與者,他們更能保證獲得充足的資源。一個非常有利于d/acc的想法是,在執(zhí)行某些災難性有害行動的過程中,將責任歸咎于人工智能接管(例如通過黑客攻擊)的任何設備的所有者或操作員。這將產(chǎn)生非常廣泛的激勵,促使人們努力工作,使世界(尤其是計算和生物)基礎設施盡可能安全。策略二:工業(yè)級硬件上的全局“軟暫!卑粹o
如果我確信我們需要比責任規(guī)則更“有力”的東西,這就是我要追求的。目標是能夠在關鍵時期將全球可用計算能力減少約90-99%達1-2年,為人類爭取更多時間做好準備。1-2年的價值不應被夸大:在自滿的情況下,一年的“戰(zhàn)時模式”很容易抵得上一百年的工作。已經(jīng)探索了實施“暫!钡姆椒ǎㄒ笞院万炞C硬件位置等具體建議。
更先進的方法是使用巧妙的加密技巧:例如,生產(chǎn)的工業(yè)級(但不是消費級)人工智能硬件可以配備一個可信的硬件芯片,只有每周從主要國際機構(包括至少一個非軍事附屬機構)獲得3/3的簽名,它才能繼續(xù)運行。這些簽名將與設備無關(如果需要,我們甚至可以要求提供零知識證明,證明它們已在Blockchain上發(fā)布),因此這將是全有或全無:沒有實際的方法可以在不授權所有其他設備的情況下授權一臺設備繼續(xù)運行。
這感覺就像是在最大化利益和最小化風險方面“勾選了方框”:
這是一種很有用的能力:如果我們收到警告信號,表明近乎超級智能的AI開始做一些有可能造成災難性破壞的事情,我們就會希望更緩慢地進行轉變。
在這種關鍵時刻發(fā)生之前,僅僅擁有軟暫停功能不會對開發(fā)人員造成太大的傷害。
專注于工業(yè)規(guī)模的硬件,并且只以90-99%為目標,可以避免在消費者筆記本電腦中安裝間諜芯片或終止開關,或強迫小國采取嚴厲措施等反烏托邦的做法。
專注于硬件似乎對技術變化非常有效。我們已經(jīng)看到,在多代人工智能中,質量在很大程度上取決于可用的計算能力,尤其是在新范式的早期版本中。因此,將可用計算能力減少10-100倍,很容易決定失控的超級智能人工智能在與試圖阻止它的人類的快節(jié)奏戰(zhàn)斗中勝出或失敗。
每周需要上網(wǎng)一次簽名本身就很煩人,這會對將該計劃擴展到消費硬件產(chǎn)生強大的壓力。
它可以通過隨機檢查來驗證,并且在硬件級別進行驗證將使特定用戶的豁免變得困難(基于法律強制關機而不是技術上的方法不具有這種全有或全無的屬性,這使得它們更有可能滑向軍隊等的豁免)
硬件監(jiān)管已經(jīng)在被認真考慮,盡管通常是通過出口管制的框架,而出口管制本質上是一種“我們信任我們一方,但不信任另一方”的理念。利奧波德·阿申布倫納(LeopoldAschenbrenner)曾主張美國應該競相獲得決定性優(yōu)勢,然后迫使中國簽署一項協(xié)議,限制他們允許運行的盒子數(shù)量。在我看來,這種方法似乎很危險,可能結合了多極競爭和中心化化的缺陷。如果我們必須限制人們,那么似乎最好在平等的基礎上限制每個人,并努力嘗試合作來組織這項工作,而不是一方試圖主宰其他所有人。AI風險中的d/acc技術
這兩種策略(責任和硬件暫停按鈕)都有漏洞,而且很明顯它們只是暫時的權宜之計:如果某件事在T時間可以在超級計算機上完成,那么在T+5年后,它很可能在筆記本電腦上完成。因此,我們需要更穩(wěn)定的東西來爭取時間。許多d/acc技術都與此相關。我們可以這樣看待d/acc技術的作用:如果人工智能接管世界,它會怎么做?
它入侵我們的計算機→網(wǎng)絡防御
它會引發(fā)超級瘟疫→生物防御
它讓我們信服(要么相信它,要么互相不信任)→信息防御
正如上文簡要提到的,責任規(guī)則是一種天然的d/acc友好型監(jiān)管方式,因為它們可以非常有效地激勵世界各地采用這些防御措施并認真對待。中國臺灣最近一直在試驗虛假廣告的責任,這可以被視為使用責任來鼓勵信息防御的一個例子。我們不應該過于熱衷于在任何地方都施加責任,并記住普通自由的好處,即讓小人物參與創(chuàng)新而不必擔心訴訟,但在我們確實希望更有力地推動安全的地方,責任可以非常靈活和有效。四、Crypto在d/acc中的作用
d/acc的大部分內容遠遠超出了典型的Blockchain主題:生物安全、BCI和協(xié)作話語工具似乎與Crypto人士通常談論的內容相去甚遠。然而,我認為Crypto和d/acc之間存在一些重要的聯(lián)系,特別是:
d/acc是加密的底層價值(去中心化、抗審查、開放的全球經(jīng)濟和社會)到其他技術領域的延伸。
由于加密用戶是天生的早期采用者,并且價值觀一致,因此加密社區(qū)是d/acc技術的天然早期用戶。對社區(qū)的高度重視(包括線上和線下,例如活動和彈出窗口),以及這些社區(qū)實際上在做高風險的事情而不是僅僅互相交談的事實,使得加密社區(qū)成為特別有吸引力的d/acc技術的孵化器和試驗臺,這些技術從根本上是針對群體而不是個人(例如,很大一部分信息防御和生物防御)。加密人只是一起做事。
許多加密技術可以應用于d/acc 主題領域:用于構建更強大和去中心化的金融、治理和社交媒體基礎設施的Blockchain,用于保護隱私的零知識證明等。今天,許多最大的預測市場都建立在Blockchain上,并且它們正逐漸變得更加復雜、去中心化和民主。
在加密相關技術方面也有雙贏的機會進行合作,這些技術對加密項目非常有用,但也是實現(xiàn)d/acc目標的關鍵:形式化驗證、計算機軟件和硬件安全以及對抗性強的治理技術。這些東西使EthereumBlockchain、錢包和DAO更加安全和強大,它們還實現(xiàn)了重要的文明防御目標,例如降低我們對網(wǎng)絡攻擊的脆弱性,包括可能來自超級智能AI的攻擊。
但深度資助只是最新的例子;以前也曾有過其他公共物品資助機制的想法,未來還會有更多。allo.expert對它們進行了很好的分類。其根本目標是創(chuàng)建一個社會小工具,可以資助公共物品,其準確性、公平性和開放性至少接近市場資助私人物品的方式。它不必完美;畢竟,市場本身也遠非完美。但它應該足夠有效,以便致力于造福所有人的頂級開源項目的開發(fā)人員可以繼續(xù)這樣做,而不必感到有必要做出不可接受的妥協(xié)。
如今,大多數(shù)d/acc主題領域的領先項目:疫苗、BCI、腕部肌肉電信號和眼球追蹤等“邊緣BCI” 、抗衰老藥物、硬件等,都是專有的。這在確保公眾信任方面有很大的缺點,正如我們已經(jīng)在上述許多 領域看到的那樣。它還將注意力轉移到競爭動態(tài)(“我們的團隊必須贏得這個關鍵行業(yè)!”),而不是更大的競爭,即確保這些技術發(fā)展得足夠快,以便在超級智能的AI世界中保護我們。出于這些原因,強大的公共物品資金可以有力地促進開放和自由。這是加密社區(qū)可以幫助d/acc的另一種方式:通過認真努力探索這些融資機制,并使它們在自己的環(huán)境中發(fā)揮良好作用,為更廣泛地采用開源科學和技術做好準備。六、未來展望
獲得工具意味著我們能夠適應和改善我們的生物學和環(huán)境,而d/acc的“防御”部分意味著我們能夠在不侵犯他人自由的情況下做到這一點。自由多元主義原則意味著我們可以在如何做到這一點方面擁有很大的多樣性,而我們對共同的人類目標的承諾意味著它應該實現(xiàn)。
我們人類仍然是最耀眼的明星。我們面臨的任務是建設一個更加光明的21世紀,在邁向星空的過程中保護人類的生存、自由和自主權,這是一個具有挑戰(zhàn)性的任務。但我相信我們能做到。
免責聲明:Vitalik最新文章:一年之后再審視d/acc文章轉發(fā)自互聯(lián)網(wǎng),版權歸其所有。
文章內容不代表本站立場和任何投資暗示。加密貨幣市場極其波動,風險很高,可能不適合所有投資者。在投資加密貨幣之前,請確保自己充分了解市場和投資的風險,并考慮自己的財務狀況和風險承受能力。此外,請遵循您所在國家的法律法規(guī),以及遵守交易所和錢包提供商的規(guī)定。對于任何因使用加密貨幣所造成的投資損失或其他損失,本站不承擔任何責任。
Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM