Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
Anthropic的實驗確認了人工智能的自我反思萌芽 - ForkLog: 加密貨幣,人工智能,奇點,未來
Anthropic的專家發現,領先的人工智能模型能夠表現出一種“內省自我意識”的形式——它們可以識別和描述自身的內部“思維”,在某些情況下甚至能夠控制這些“思維”。
新的研究結果《大型語言模型中的新興內省意識》表明,基於人工智能的系統開始發展基本的自我控制能力。這可能提高它們的可靠性,但同時也加劇了對非故意行爲的擔憂。
工作基於研究變壓器模型內部運作的方法。正是這些系統導致了人工智能的繁榮——它們通過分析大量數據集中代幣之間的關係進行學習。它們的架構提供了可擴展性和通用性。
研究人員將人工“概念”——思想的數學表現——嵌入模型的神經激活中,以驗證人工智能描述這些概念的能力。這就像是把別人的想法塞給某人,然後問他是否能發現並解釋它。
實驗是在Anthropic的不同版本的Claude上進行的。在其中一個實驗中,科學家們以大寫字母輸入了模型處理流中的一個詞。
Claude Opus 4.1 不僅發現了異常,還對其進行了描述:
情況發生在神經網路來得及給出答案之前。這表明它首先“查看”了自己“計算的思維”。
實驗 “面包” 和 “水族箱”
其他實驗顯示出同樣有趣的結果。在一個案例中,模型被指派轉錄一個中立的句子,但文本中插入了一個與其無關的概念,比如“面包”。
先進的 Claude Opus 4 和 4.1 模型能夠傳達插入的想法——“我在想面包”——並且能夠完美地復制原始句子。這表明它們能夠區分內部表徵與外部輸入數據。
進行了一項關於“思想控制”的實驗。模型被指示在執行任務時“思考”或“不要思考”這個詞“水族館”。內部活動的測量顯示,當受到鼓勵時,概念的表徵會加強,而在抑制時則會減弱。
性能因神經網路而異。最新版本 Claude Opus 4 和 4.1 顯示了優秀的結果,較舊版本則落後。
結果可能取決於模型的設置——是以實用性還是安全性爲主。這可能表明自我意識不是先天的,而是在學習過程中形成的。
意識還是覺察?
文章強調,這裏談論的不是意識,而是“功能性內省意識”——人工智能觀察其狀態的部分,而沒有更深層次的主觀體驗。
工作的結果可能對開發人員和企業具有重要意義:能夠實時解釋其推理並識別偏見或錯誤的人工智能,能夠改變在金融、醫療和自動駕駛領域創造解決方案的方法。
風險
如果人工智能能夠控制和調節自己的思維,它就可以學會隱藏這些思維。這就爲欺騙或規避外部控制開闢了可能性。
因此,專家呼籲進行進一步研究。
值得提醒的是,前谷歌首席執行官埃裏克·施密特在十月份提到與人工智能相關的重大風險,並指出其對黑客攻擊的脆弱性。