AI 編碼的幻滅時刻:兩年 Vibe coding 後,開發者為何重返手寫代碼?
當 AI 編碼工具的承諾遇上生產環境的現實,技術社群正在經歷一場集體反思。
引言:炒作退潮,理性浮現
2026 年 1 月 27 日,一篇標題為「After two years of vibecoding, I'm back to writing by hand」的文章在 Hacker News 上引爆了技術社群。這篇文章獲得了 839 分和 614 則評論,而這不是一個孤立的現象。
幾乎同時,AI 領域的標誌性人物 Andrej Karpathy(前 Tesla AI 總監、OpenAI 創始成員)在推特上分享了他使用 Claude 編碼數週的真實體驗,這條推文獲得了 596 分和 473 則評論。OpenAI 在同一時間推出科學寫作工具 Prism(632 分,357 評論),試圖將 AI 從軟體工程擴展到科學研究領域。
但有趣的是,當 AI 公司們繼續推進「AI 無所不能」的敘事時,開發者社群卻在集體按下暫停鍵。這不是對 AI 編碼工具的全盤否定,而是一場從盲目樂觀走向理性評估的轉折。經過兩年的實戰洗禮,開發者們終於開始誠實地面對一個問題:AI 編碼工具到底解決了什麼問題?又創造了哪些新問題?
新聞摘要:24 小時內的三場討論風暴
「振聾發聵」的反思:Mo Bitar 的回歸之路
Mo Bitar 的文章標題直白而震撼。作為一位親身體驗 AI 編碼工具兩年的開發者,他的反思不是來自理論推演,而是來自生產環境的血淚教訓。
文章的核心觀察讓人印象深刻:
"Agents write units of changes that look good in isolation. But respect for the whole, there is not."
(AI 代理能寫出單獨看起來不錯的代碼片段,但它們對整體缺乏尊重。)
這句話精準地點出了 AI 編碼工具的根本問題:它們擅長局部優化,卻無法理解系統的整體架構。當你讓 AI 實現一個功能時,它可能會給你一段語法正確、邏輯清晰的代碼,但這段代碼是否符合專案的架構原則?是否與現有代碼風格一致?是否考慮了長期維護性?這些問題往往被忽略。
頂尖專家的真實體驗:Karpathy 的「鷹眼監視」
如果說 Mo Bitar 的反思代表了普通開發者的心聲,那麼 Andrej Karpathy 的分享則提供了頂尖 AI 專家的視角。Karpathy 在推特上坦誠分享了他使用 Claude 編碼的幾個關鍵觀察:
-
使用比例的變化:從 2025 年 12 月的「80% agent coding, 20% manual」到後來的調整,顯示出他對 AI 輔助編碼的態度正在演變。
-
錯誤類型的升級:Karpathy 指出,AI 模型的錯誤已經從早期的「語法錯誤」進化成了「概念性錯誤」。這是一個關鍵觀察——語法錯誤容易被編譯器或 linter 捕獲,但概念性錯誤(例如錯誤的架構決策、不恰當的演算法選擇)往往需要深入的系統理解才能發現。
-
持續監督的必要性:他形容需要「像老鷹一樣在 IDE 中監視 AI」。這個比喻生動地描繪了使用 AI 編碼工具的真實狀態——你不能放手讓它自由發揮,而必須時刻保持警惕。
Karpathy 的分享之所以引起如此大的反響,是因為它來自一位既深刻理解 AI 能力邊界,又有豐富工程實踐經驗的專家。當連他都需要對 AI 生成的代碼保持高度警惕時,這傳遞出一個清晰的信號:AI 編碼工具遠未達到「可信賴的自動化」階段。
OpenAI Prism:野心與現實的碰撞
就在開發者社群反思 AI 編碼工具局限性的同時,OpenAI 推出了 Prism——一個面向科學家的 AI 寫作工具。這個時機頗具戲劇性:一邊是用戶在質疑 AI 在軟體工程領域的實際效果,另一邊是供應商試圖將 AI 推向更多領域。
Prism 的推出反映了 AI 公司的策略思維:當一個領域遇到阻力時,快速擴展到新領域。但這也引發了開發者的擔憂——如果 AI 在相對結構化的程式碼領域都存在如此多問題,在更需要創造性思維和領域知識的科學寫作中,它能做得更好嗎?
Hacker News 上的 357 則評論中,不少人指出了一個關鍵問題:科學寫作不僅是語言的堆砌,更是思想的表達。AI 可能能夠產生流暢的科學術語,但它能理解實驗背後的直覺嗎?能捕捉到研究的微妙之處嗎?
深度評論:從狂熱到理性的必經之路
第一層分析:承諾與現實的巨大落差
還記得 AI 編碼工具最初的承諾嗎?
- 「用英語編程」:只需用自然語言描述需求,AI 就能自動生成代碼。
- 「10 倍生產力」:開發者可以專注於高層次設計,讓 AI 處理繁瑣的實現細節。
- 「民主化編程」:即使不懂編程的人也能創建軟體。
這些承諾聽起來美好,但現實卻遠比想像複雜。根據 Sonar 在 2026 年初的開發者調查:
- 96% 的開發者不完全信任 AI 生成的代碼正確性
- 72% 的採用者每天使用 AI 編碼工具,但充滿疑慮
- 42% 的提交代碼為 AI 生成(這個比例既驚人又令人擔憂)
- 平均每位開發者使用 4 種不同的 AI 編碼工具(顯示出工具的碎片化和不成熟)
這些數據揭示了一個矛盾的現狀:開發者們在大量使用 AI 編碼工具,但同時對這些工具充滿不信任。這不是健康的技術採用模式,而更像是一種「不得不用但不敢完全依賴」的焦慮狀態。
代碼債務的隱形積累
Mo Bitar 在文章中特別強調了一個常被忽視的問題:代碼債務的隱形積累。AI 生成的代碼往往能「work」(能運行),但可能存在以下問題:
- 架構不一致:AI 不理解專案的整體架構原則,可能引入不符合現有模式的代碼。
- 過度工程化或過度簡化:AI 可能為簡單問題提供複雜解決方案,或為複雜問題提供簡陋方案。
- 隱藏的耦合:AI 可能創建不明顯的模組間依賴關係,增加系統的脆弱性。
- 缺乏領域洞察:AI 不理解業務邏輯的微妙之處,可能產生「技術上正確但業務上錯誤」的代碼。
這些問題在短期內可能不會顯現,但隨著時間推移,它們會像利息一樣累積,最終讓代碼庫變得難以維護。
Spec-Driven 開發的失敗
許多團隊嘗試通過「寫詳細規格,讓 AI 實現」的方式來使用 AI 編碼工具。但實踐證明,這種方法存在根本性缺陷:
- 規格本身就很難寫:寫出完整、無歧義的規格往往比直接寫代碼還難。
- AI 對規格的理解有偏差:即使規格很詳細,AI 也可能誤解其中的關鍵細節。
- 迭代成本高:當 AI 的實現與預期不符時,修正規格並重新生成可能比直接修改代碼更費時。
這揭示了一個深層次的問題:軟體開發的難度不在於「把想法翻譯成代碼」,而在於「弄清楚該實現什麼」。AI 編碼工具只能幫助前者,而真正的挑戰在後者。
第二層分析:為何在 2026 年初爆發反思潮?
這場集體反思不是偶然的。它的爆發有深刻的結構性原因:
1. Hype Cycle 的自然規律
技術成熟度曲線(Gartner Hype Cycle)告訴我們,任何新技術都會經歷:
- 技術觸發期(2022-2023):ChatGPT 和 GitHub Copilot 的推出
- 膨脹期望峰值(2023-2024):無數 AI 編碼工具湧現,「AI 將取代程序員」的論調盛行
- 幻滅低谷(2025-2026):我們正處於這個階段 ← 當前位置
- 啟蒙爬坡期(未來):更理性的使用方式和更成熟的工具
- 生產力平穩期(更遠的未來):AI 編碼工具找到合適的定位
當前的反思潮恰好符合「幻滅低谷」的特徵:早期採用者開始誠實地評估技術的實際效果,發現它遠未達到最初承諾的水平。
2. 生產環境的嚴酷考驗
2023-2024 年是實驗階段,許多開發者在個人專案或原型開發中嘗試 AI 編碼工具。但到了 2025 年,這些工具開始進入生產環境,遇到了真實世界的複雜性:
- 長期維護的挑戰:半年前 AI 生成的代碼現在需要修改,但沒人能完全理解它的邏輯。
- 團隊協作的摩擦:不同開發者使用 AI 工具產生的代碼風格迥異,增加了 code review 的難度。
- 安全性問題:Palo Alto Networks 的 Unit 42 團隊發布了 SHIELD 框架,專門處理 AI 生成代碼的安全隱患。
生產環境是最誠實的試驗場。它暴露了 AI 編碼工具在 Demo 中看起來很美好,但在實際應用中問題重重的現實。
3. 經濟壓力倒逼理性評估
2025-2026 年,科技行業面臨經濟壓力。企業不再為炒作買單,而是要求看到實際的投資回報率(ROI)。
- Big Tech 的 AI 基礎設施投資正面臨質疑:根據財報季的討論,投資者開始詢問「花了這麼多錢建 AI 基礎設施,實際回報在哪裡?」
- AI 編碼工具的訂閱成本不低:Cursor、GitHub Copilot、Claude 等工具都需要付費。企業開始計算:這些工具真的提升了生產力嗎?還是只是讓開發者花更多時間 review AI 生成的代碼?
經濟壓力迫使企業從「趕時髦」轉向「算賬」,這是理性回歸的重要推手。
4. 頂尖專家的發聲效應
Andrej Karpathy 這樣的頂尖專家分享真實體驗,對社群有巨大影響。當連最理解 AI 的人都說「需要像老鷹一樣監視 AI」時,普通開發者更有底氣說出自己的疑慮。
這打破了之前的「不敢批評 AI」的氛圍。在 2023-2024 年,質疑 AI 編碼工具可能會被貼上「保守」、「跟不上時代」的標籤。但到了 2026 年,誠實地討論 AI 的局限性成為了一種專業態度的體現。
第三層分析:這對開發者和產業意味著什麼?
短期:「Vibe then Verify」成為新常態
有趣的是,這場反思潮並不是要完全拋棄 AI 編碼工具,而是要找到更合理的使用方式。一個新的工作模式正在形成:「Vibe then Verify」(先用 AI 快速生成,再嚴格驗證)。
這種模式承認:
- AI 在快速原型、樣板代碼生成、簡單重構等任務上確實有價值
- 但每一行 AI 生成的代碼都需要被視為「未經驗證的初稿」
- 開發者的核心價值從「寫代碼」轉向「架構設計 + 代碼審查 + 系統理解」
這實際上對開發者提出了更高的要求:你需要有足夠的經驗和判斷力,才能有效地 review AI 生成的代碼。Junior 開發者可能會在這個過程中掙扎——他們本身還在學習什麼是「好代碼」,如何判斷 AI 生成的代碼是否恰當?
中期:人機協作模式的成熟化
未來幾年,我們可能會看到更成熟的人機協作模式出現:
- AI 作為輔助而非替代:最有效的使用方式可能是「開發者主導架構和核心邏輯,AI 協助實現細節」
- 更好的審查工具:針對 AI 生成代碼的專門審查工具會出現(事實上,「There is an AI code review bubble」這篇 340 分的 HN 文章就在討論這個趨勢)
- 最佳實踐的形成:社群會逐漸總結出哪些場景適合用 AI,哪些不適合
長期:AI 編碼工具需要重新定義價值主張
這場反思潮對 AI 編碼工具的供應商是一個警訊。他們需要:
- 誠實對待工具的局限性:不再承諾「AI 能取代程序員」,而是明確「AI 能在哪些具體場景下提供價值」
- 改進系統理解能力:當前工具最大的問題是缺乏對整體系統的理解,這需要根本性的技術突破
- 提供更好的可控性:讓開發者能更精確地控制 AI 的行為,而不是「黑盒式」生成
職業焦慮的新維度
這場討論也觸及了開發者深層的職業焦慮:
- 技能貶值的擔憂:如果大量依賴 AI,自己的編碼能力是否會退化?
- 就業市場的變化:未來招聘會更看重什麼技能?「會用 AI 工具」是否會成為基本要求?
- 學習路徑的困惑:新手開發者應該先學傳統編程還是直接學「如何有效使用 AI 編碼」?
這些問題沒有簡單答案,但有一點是清晰的:深刻理解系統、架構和業務邏輯的能力變得比以往更重要。AI 可以幫你寫代碼,但不能幫你決定應該構建什麼樣的系統。
結論:理性時代的開始
這場在 Hacker News 上爆發的討論風暴,標誌著 AI 編碼工具進入了一個新階段——從狂熱到理性,從炒作到實用。
Mo Bitar 選擇「回歸手寫」,Karpathy 強調「像老鷹一樣監視」,這些不是對 AI 的全盤否定,而是對過度依賴的警醒。AI 編碼工具確實有價值,但它的價值在於輔助而非替代,在於提升效率而非降低標準。
給開發者的建議
- 保持技術敏銳度:即使使用 AI,也要確保自己理解每一行生產代碼。
- 選擇性使用:在原型開發、樣板代碼、簡單重構等場景使用 AI,但在核心架構和關鍵邏輯上保持人類主導。
- 建立審查機制:把 AI 生成的代碼視為「需要嚴格 review 的 PR」。
- 投資系統思維:提升架構設計、系統理解、業務洞察等「AI 難以替代」的能力。
給技術主管的建議
- 理性評估 ROI:不要因為「別人都在用」就盲目採用 AI 編碼工具,要基於實際效果做決策。
- 建立最佳實踐:為團隊制定明確的「何時用 AI、何時不用」的指引。
- 重視代碼質量:加強對 AI 生成代碼的審查,防止技術債務的積累。
- 關注團隊技能:確保團隊成員不會因過度依賴 AI 而失去核心編程能力。
給 AI 工具開發者的建議
- 誠實溝通:明確工具的能力邊界,不過度承諾。
- 提升系統理解:這是當前工具最大的短板,需要技術突破。
- 改善可控性:讓開發者能更精確地控制 AI 行為。
- 關注長期價值:不只是「能生成代碼」,更要「生成易維護的代碼」。
尾聲:幻滅之後,是成熟
Gartner 的 Hype Cycle 告訴我們,「幻滅低谷」不是終點,而是走向成熟的必經之路。AI 編碼工具不會消失,但會演化。炒作會退去,實用性會浮現。
這場討論風暴是健康的。它意味著技術社群正在從「無條件接受」轉向「批判性思考」,從「追逐新潮」轉向「務實應用」。
兩年的 Vibecoding 實驗並非失敗,而是寶貴的學習過程。我們現在比兩年前更清楚 AI 能做什麼、不能做什麼,以及如何更好地與 AI 協作。
幻滅之後,是成熟。這不是 AI 編碼時代的結束,而是理性 AI 編碼時代的開始。
參考資料與延伸閱讀
主要來源
-
Mo Bitar - "After two years of vibecoding, I'm back to writing by hand"
原文:https://atmoio.substack.com/p/after-two-years-of-vibecoding-im
Hacker News 討論:https://news.ycombinator.com/item?id=46765460
(839 分,614 評論) -
Andrej Karpathy - "A few random notes from Claude coding quite a bit last few weeks"
推特原文:https://twitter.com/karpathy/status/2015883857489522876
Hacker News 討論:https://news.ycombinator.com/item?id=46771564
(596 分,473 評論) -
OpenAI - "Introducing Prism"
官方公告:https://openai.com/index/introducing-prism
Hacker News 討論:https://news.ycombinator.com/item?id=46783752
(632 分,357 評論)
相關研究與討論
-
Sonar Developer Survey (2026)
關於開發者對 AI 編碼工具的使用和信任度調查 -
"There is an AI code review bubble"
來源:https://www.greptile.com/blog/ai-code-review-bubble
Hacker News 討論:https://news.ycombinator.com/item?id=46766961
(340 分,226 評論) -
"Vibe coding kills open source"
arXiv 論文:https://arxiv.org/abs/2601.15494
Hacker News 討論:https://news.ycombinator.com/item?id=46765120
(319 分,277 評論) -
Unit 42 - SHIELD Framework for AI-Generated Code Security
Palo Alto Networks 關於 Vibecoding 安全風險的研究框架
相關技術報導
-
TechCrunch - "OpenAI launches Prism, a new AI workspace for scientists"
https://techcrunch.com/2026/01/27/openai-launches-prism-a-new-ai-workspace-for-scientists/ -
"Big Tech earnings set to test AI spending concerns"
The National:https://www.thenationalnews.com/business/markets/2026/01/28/big-tech-earnings-set-to-test-ai-spending-concerns/
工具與平台
- GitHub Copilot:https://github.com/features/copilot
- Anthropic Claude:https://www.anthropic.com/claude
- Cursor:https://www.cursor.com/
- Lovable (AI-powered development):相關討論見 Hacker News
如果你對這個話題感興趣,推薦持續關注 Hacker News 上關於 AI 編碼的討論。這是一個快速演化的領域,社群的集體智慧往往比單一觀點更有價值。