![]()
Lior Pozin 在2025年初對 人工智能 基礎設施有了頓悟。作為 AutoDS 的首席執行官,這是一家基于人工智能的電子商務自動化平臺,他推動團隊迅速部署人工智能功能,認為速度將決定成功。
AutoDS 是一家自籌資金的公司,最終達到了180萬用戶,創造了超過10億美元的收入,并成功出售給了Fiverr。從公司成立之初,它就是一家快速發展的公司,速度是戰略,快速實施似乎是自然而然的運作方式。但隨著Pozin的團隊從試點項目轉向生產,他們意識到僅僅依靠速度是不夠的。人工智能只有在正確的數據基礎和所有權結構到位時,才能 交付結果。
“沒有正確的治理、數據組織和訪問,人工智能無法擴展,”Pozin對 Fast Company 說。“一旦我們建立了那個基礎,一切都改變了。人工智能不再只是一個功能,而是我們運作方式的一部分。”
這種經歷并非AutoDS獨有。在2025年,各個行業的公司迅速意識到,大規模部署人工智能 需要面對基礎設施、對人工智能能力的誤解,以及在追求變革性問題之前解決一些不光彩問題的意愿等不舒服的真相。盡管這一年開始時充滿了美好的承諾,但結果卻更多是與現實的對峙,而非突破。
出現的教訓揭示了一個正在成長的行業。行業不再是單純地構建更強大的模型或籌集更多資金,而是通過弄清楚在演示結束、真正工作開始時,什么才是真正有效的而成熟。
基礎設施優先,否則其他都無關緊要
在2024年初,數據庫公司 RavenDB 探索與微軟合作為其文檔構建一個人工智能助手。該項目最終失敗了。創始人Oren Eini表示,問題不在于人工智能模型本身,而在于其周圍的一切。
數據必須通過多個系統才能到達模型,而更新則需要手動干預。整個設置依賴于脆弱的連接,這些連接隨時可能中斷。對于一家數據庫公司來說,這種諷刺是顯而易見的。
這一經歷讓團隊明白了一個重要的道理:人工智能需要更深入地集成到數據庫本身中,以便能夠可靠、可預測和可擴展。
對于Eini來說,這并不是一次挫折,而是一個信號,表明周圍的架構與模型本身同樣重要。這一認識影響了RavenDB最近在AI代理及直接構建在數據庫層中的能力方面的工作,在這里,模型與其依賴的數據更接近,并且在生產環境中可以表現得更可預測。
在AutoDS,這一轉變意味著采取了一種更有意識的方法。團隊專注于在他們的直銷平臺上構建一個共享數據層,并在AI項目周圍建立更清晰的責任,這使得像其AI驅動的商店構建器這樣的產品能夠在業務中更可靠地擴展。
這一轉變需要耐心。Pozin的團隊停止追逐看起來令人印象深刻的東西,開始關注更重要的指標:節省的時間、提高的準確性和加快的決策。“現在的成功意味著AI真的改善了我們的工作方式,而不僅僅是我們在用它,”Pozin指出。
效率勝過原始力量
在2025年,雖然AI行業在追求更大的模型和更多的計算能力,Oculeus,一家在AI領域擁有深厚經驗的電信軟件公司,花了一年時間優先考慮效率。團隊專注于設計和優化能夠提供可靠性能而不產生過多計算開銷的系統。這一重點是Oculeus在電信中應用AI的核心,其系統用于實時檢測欺詐模式和異常行為。
在這些環境中,公司的首席執行官Arnd Baranowski解釋說:“可預測性比新奇性更重要,因為誤報和不一致的輸出會帶來直接的財務和運營風險。”
Baranowski補充道:“那些伴隨著大規模計算和能源消耗的AI算法和技術,實際上是一條誤入歧途的路。”他的批評超越了硬件,質疑行業對非確定性系統的接受程度,這些系統對相同輸入產生不同輸出。“訓練必須產生100%確定性的響應。否則,就有問題。”
這種觀點與大家對大型語言模型的熱情相悖,對Baranowski來說,2025年的教訓很簡單:AI系統只有在表現一致、在真實操作條件下可靠時,才能贏得信任。
Eini 也分享了這種觀點。在 RavenDB,目標不是構建最聰明的 AI,而是構建沒有戲劇性的、可預測的 AI。“我們不一定想要‘聰明’的 AI,”Eini 說。“我們想要可預測的 AI。”
隨著 計算成本保持高位 和能源消耗成為公眾關注的問題,2026 年將有利于那些能夠以更少的資源做更多事情的公司,而不是那些仍在追求最大模型的公司。
信任需要邊界
在 2024 年,加拿大航空的聊天機器人向一位客戶承諾了一個并不存在的喪親票價折扣。該航空公司因此被追責。這個案例明確了一個在 2025 年變得不可避免的問題:AI 代理無法像員工那樣被信任。
Eini 直言不諱。銀行出納員受政策和后果的約束,而 AI 代理并不受這些約束。“我喜歡把他們看作是我知道容易受賄的員工,”他說。“為他們的行為有意識地設定邊界并積極實施保護措施至關重要。”
這些邊界變得具體可行。在 AutoDS,Pozin 創建了一個專門的團隊來驗證 AI 輸出并確保系統接收到準確的源數據。在 RavenDB,團隊開發并實施了審批鏈流程,并對 AI 代理可以訪問或承諾的內容設定了明確的限制。
這個教訓不僅僅是技術保障。AI 代理存在于工具和行為者之間的灰色地帶。它們響應指令,但缺乏判斷力。它們執行任務,但無法權衡后果。這一現實需要新的問責框架,而不是單純依賴良好的訓練來保證良好的行為。
在 2026 年,蓬勃發展的組織會首先把 AI 部署當作一個信任問題。這意味著要對能力和限制保持透明,為用戶設定明確的期望,并設計系統以便在出現問題時安全失敗。
解決小問題勝過大躍進
今年最大的人工智能話題集中在自動駕駛汽車、通用人工智能(AGI)——人工智能科學家揚·勒昆認為這只是個幻覺——以及模型取代整個職業。但真正取得進展的公司則專注于其他方面:大規模解決小而惱人的問題。
“最大的變化將來自于解決許多小問題,而不是依賴一個全知的人工智能,”艾尼說。“數量本身就有其獨特的價值,消除許多小摩擦會讓整體進展更快。”
RavenDB讓普通團隊成員在幾天內就能構建人工智能功能,而不用等頂尖工程師的批準和執行。AutoDS通過人工智能是否使員工更快、更高效來衡量成功,而不是通過運行多少個人工智能項目。結果雖然在個體上是適度的,但在整體上卻是變革性的。
一年前,各公司追逐人工智能本身,推出的試點項目在演示中看起來很不錯,但從未真正推廣。到2025年,焦點轉向可衡量的影響。艾尼把這比作我們今天如何讓水變得可飲用,這種做法現在已經很普遍,以至于沒人會去想。“就像自動取款機或自助結賬服務并沒有從根本上改變整個世界,但卻使我們的生活可衡量地變得更好,我認為我們會看到很多這樣的變化,”他告訴我。“變化的數量將產生變革性的影響。”
準備比應對更重要
史蒂夫·布里爾利在2025年并沒有構建人工智能。作為量子計算公司Riverlane的CEO,他注意到當ChatGPT出現時,各行業的準備都很不足。“人工智能熱潮暴露了許多行業在像ChatGPT這樣的工具突然進入主流時的準備不足,迫使公司在法規、可擴展性、數據準備和整合,以及日益擴大的勞動力和技能差距之間忙碌不已,”布里爾利說。
他的收獲是:要盡早理解新興技術,以便預見挑戰,而不是等到危機發生再反應。量子計算將比許多人預期的更早到來,而且這不會是邊際改進。“人工智能擅長分析和生成數據洞察,而量子計算將使全新類型的數據的創建成為可能,”布里爾利說。“兩者結合將解鎖遠超技術單獨所能實現的探索、發現和創新。”
國際電工委員會副秘書長吉爾·托內特在監管方面也看到了類似的情況。隨著2025年人工智能法律的生效,各公司在把法律要求落實到實際操作中時遇到了很多困難。“國際標準對建立人們對這項變革性技術的信任至關重要,”托內特說。
接下來會發生什么
2025年的教訓指向一個扎根于實際操作而非炒作的人工智能未來。引領這一轉變的公司建立了基礎設施,設定了邊界,解決了實際問題,而不是一味追逐頭條新聞。
但新的挑戰正在出現。NTT Data的全球網絡安全服務負責人Sheetal Mehta警告說,推動生產力提升的人工智能技術正在被武器化。“代理人工智能的速度和自主學習及決策的能力也可能被網絡犯罪分子利用,使企業面臨新的攻擊面和意想不到的安全漏洞,”Mehta說。
這意味著到2026年,我們不僅需要更好的系統,還需要更好的保護措施。組織需要把人工智能的安全、治理和倫理當作基礎,而不是可有可無的選擇。
Pozin生動地捕捉到了這一轉變。“人工智能的下一個階段是與我們一起生活、每天學習,并及時提供我們所需的服務。它將不再像工具,而是像一個真正理解你的隊友,”他說。
Eini更簡單地表達:“超越最初的敬畏,成為一個透明的工具,能夠簡單高效地完成任務。”
不是AGI。不是完全自動化。只是可靠工作的人工智能,能夠可預測地擴展,并在不創造新問題的情況下解決問題。對于一個花費多年追逐月球計劃的行業來說,這或許是最雄心勃勃的目標。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.