Blog

SWE-Pruner:程式碼智能體之自適應上下文修剪機制與理論深度分析報告

SWE-Pruner:程式碼智能體之自適應上下文修剪機制與理論深度分析報告

2026年2月25日

在當代軟體工程的演進歷程中,大型語言模型(Large Language Models, LLMs)的應用已經跨越了單純的程式碼片段補全與靜態語義分析,正式邁入能夠自主導航龐大程式碼庫

Transformer 注意力機制的貝葉斯幾何學:機制與理論深度分析報告

Transformer 注意力機制的貝葉斯幾何學:機制與理論深度分析報告

2026年1月15日

Naman Agarwal等人2026年開創性研究證實Transformer透過注意力機制精確實現貝葉斯推理,揭示其上下文學習的幾何本質並為提示工程奠定理論基礎。

嵌套學習:深度學習架構的幻象

嵌套學習:深度學習架構的幻象

2025年12月22日

提出了 嵌套學習 這一新的學習典範,將機器學習模型表示為一組嵌套的、多層次的優化問題,每一層都有自己的「上下文流」。從 NL 的角度看,現有深度學習方法通過壓縮自身的上下文流來從數據中學習,而大型模型中的上下文學習自然湧現。NL 提出了一種哲學思想,即設計具有更多「層次」、更富表達力的學習演算法,從而實現更高階的上下文學習,並可能解鎖有效的持續學習能力。

Offset Geometric Contact 論文彙整

Offset Geometric Contact 論文彙整

2025年10月29日

關於《Offset Geometric Contact》論文的詳細條列式彙整,涵蓋方法、演算法和實驗結果。

複雜城市系統的實體資訊AI綜述

複雜城市系統的實體資訊AI綜述

2025年9月16日

《複雜城市系統的實體資訊AI綜述》章節重點提煉

基於稀缺資料的物理資訊學習:從資料中發現控制方程式

基於稀缺資料的物理資訊學習:從資料中發現控制方程式

2025年7月9日

一種新型物理資訊深度學習架構(PiDL),在稀缺噪音資料下高效率發現非線性時空系統的控制偏微分方程

Gemini for Workspace 提示指南精要

Gemini for Workspace 提示指南精要

2025年6月5日

Google Workspace 中 Gemini AI 提示工程核心技巧與應用場景

Hello World

Hello World

2025年3月1日

我的第一篇博客

歡迎來到我的網站

歡迎來到我的網站

2025年2月1日

這是一個靜態生成的 Nuxt 3 網站