呜啦!日常碎碎念,偶尔掉落优质前端博文推荐、学习资源等
网页:https://tg.cosine.ren
本频道的搜索Bot 来辣 👉 @cosSearchBot
私聊直接发消息就可以搜索啦~
🔖tags
#优质博文 #资源推荐 #博客更新 #碎碎念 #项目更新 #手工 #书摘 #阮一峰的科技周刊 #新动态

图频:Cosine 🎨 Gallery @CosineGallery
猫片: @cosine_cat
联系频道主:@cosine_yu
#优质博文 #AI #上下文工程 #ClaudeCode
Writing a good CLAUDE.md

AI 摘要:本文介绍了如何编写一个高质量的 CLAUDE.md (或AGENTS.md)文件,以帮助大型语言模型如 Claude 在每次会话中准确理解项目上下文。作者强调 Claude 是无状态(stateless)的,需要通过 CLAUDE.md 主动引导项目背景和结构。文中指出主文件应聚焦通用信息、减少冗余指令、避免让模型充当代码检查工具,并提出了“渐进揭示(Progressive Disclosure)”原则来管理上下文信息。结论是:精简、聚焦、人工精心编写的 CLAUDE.md 才能真正成为助力开发的高杠杆点。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. LLM 基础与 CLAUDE.md 的角色
• 强调 LLM 是无状态的,推理时并不会记忆过往对话。
CLAUDE.md 文件是让模型理解代码库的唯一常驻入口,每次对话都会自动加载。
• 它的作用类似于为 Claude 提供项目结构图与工作指南。

2. CLAUDE.md 的内容原则:WHAT / WHY / HOW
WHAT:介绍项目栈、架构与子模块结构,是 Claude 的“路线图”。
WHY:说明项目目标与各部分用途,帮助 Claude 理解设计动机。
HOW:告诉 Claude 如何执行任务,如构建流程、测试方式、工具链(例如使用 bun 还是 node)。
• 提醒不要塞入所有命令,应保持“够用、通用、可解释”。

3. Claude 忽略 CLAUDE.md 的原因及机制
• Claude 会根据系统提醒(<system-reminder>)判断上下文是否相关。
• 若文件含过多不相关信息,Claude 会选择性忽略。
• 这种机制是为防止用户使用 CLAUDE.md 添加无关“热修复”指令所设计。

4. 编写高质量 CLAUDE.md 的建议
• 遵循 context engineering best practices
• 少即是多 (Less is more):避免过多指令或与代码无关的规则。
• 研究表明 LLM 对 150–200 条指令的响应最为稳定,超过会急剧下降。
• Claude Code 的系统提示占掉约 50 条指令空间,因此应控制在极简范围内。

5. 文件长度与通用性建议
• 上下文窗口应专注于高相关的内容,而非填充冗余背景。
• 建议文件 <300 行,理想情况下 <60 行。
• 仅包含“通用适用”的指令与信息。

6. 渐进揭示 (Progressive Disclosure) 原则
• 将不同任务的指令拆分为独立的 Markdown 文件(如 agent_docs/ 目录)。
• 在主文件中只列出这些文件及简要说明,让 Claude 按需访问。
• 避免代码复制,推荐使用 file:line 引用;引用比拷贝更可维护。

7. Claude 不是代码检查工具
• 不应让 Claude 替代 linter 或 formatter。
• 代码风格应由确定性工具(如 Biome)自动处理。
• 可使用 Stop hook 或 Slash Command 将检查与格式化过程外挂给 Claude 参考,而非直接放入主文档中。

8. 避免自动生成或使用 /init
• 自动生成的文件通常内容冗余或缺乏针对性。
CLAUDE.md 是高杠杆点,一旦草率配置,会对所有阶段输出产生负面连锁影响。
• 建议人工精雕细琢每一行指令,使其精准可靠。

9. 结论与最佳实践总结
• 明确项目的 WHY / WHAT / HOW。
• 内容简洁、普适、避免多余。
• 采用渐进式信息揭示策略。
• 使用独立工具执行语法或格式检查任务。
• 谨慎维护 CLAUDE.md——它影响整个代理(agent)表现的核心。


author Kyle Mistele Writing a good CLAUDE.md
#优质博文 #前端 #AI #工程化 #bun #新动态
Bun 被 Anthropic 收购。
Bun is joining Anthropic

AI 摘要:Bun 宣布被 Anthropic 收购,将作为 Claude Code、Claude Agent SDK 等产品的核心基础设施。Bun 保持开源与 MIT 许可证,团队与路线图不变,继续专注于高性能 JavaScript 工具和 Node.js 兼容性建设。此次加入为 Bun 带来长期稳定性与更充足资源,也让团队处于 AI 编码革命的前线,加速产品迭代,助力 AI 驱动的开发模式未来。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 加入 Anthropic 的背景与不变之处
• Anthropic 收购 Bun,旨在让其成为 Claude Code 与未来 AI 编程工具的运行基础。
• Bun 将继续开源(MIT 许可)、在 GitHub 公开开发,保持原团队管理与代码维护。
• 路线图不变,持续聚焦高性能 JavaScript 工具与 Node.js 替代能力。

2. 与 Anthropic 合作后的变化
• 更紧密参与 Claude Code 与 Claude Agent SDK 的性能优化,让工具更快更轻。
• 获得 AI 工具一手开发动态,Bun 能优先适配未来 AI 编程需求。
• 加速发布周期,强化生态深度。

3. Bun 的起源与演进
• 起点是开发浏览器 voxel 游戏时的性能瓶颈,促生对编译与运行时系统的探索。
• 从 esbuild 移植 JSX/TypeScript 编译器到 Zig,用 JavaScriptCore 构建自有运行时。
• 2022 年发布 Bun v0.1,集打包器、编译器、运行时、测试与包管理于一体。
• 后续版本:
• v1.0(2023 年)正式稳定,融资并扩张团队;
• v1.1 补齐 Windows 支持;
• v1.2 强化 Node.js 兼容与扩展数据库客户端;
• v1.3 加入前端开发服务器、Redis/MySQL 驱动,生产应用激增。

4. AI 编码工具的崛起与契合
• 2024 年后 AI 编码工具突飞猛进,Bun 的单文件可执行特性非常适合 CLI 与 Agent 分发。
• Claude Code、FactoryAI、OpenCode 等关键 AI 工具均基于 Bun。
• 团队自用 Claude Code 实现自动提交与错误修复,提升开发效率。

5. 可持续性与发展方向
• Bun 至今无直接营收,原计划构建云产品,但 AI 生态发展已重塑商业逻辑。
• 加入 Anthropic 避免了 VC 变现压力,转而获得长期稳定支持与核心地位。
• 与其在未来 AI 开发趋势之外摸索,不如进入中心参与制定。

6. 未来展望与愿景
• 目标成为 AI 时代的标准运行时,让 Bun 承载“AI 驱动软件开发”的基础层。
• Anthropic 为其提供长期资源、战略支持与招聘扩展。
• 持续对社区开放、保持 Node.js 兼容、加速工具链性能提升。
• 预期形态类似「Claude Code <> Bun」关系,类比于「Chrome <> V8」等组合。


author Jarred Sumner Bun is joining Anthropic
#优质博文 #AI #AST #React #前端 #测试 #工程实践 #ClaudeCode #codemod #course
好文章,关于使用 AI 进行重构迁移的教科书式文章。
Migrating 6000 React tests using AI Agents and ASTs

AI 摘要:作者在 Filestage 的前端项目中使用 AI Agents(特别是 Claude Code)与 AST(Abstract Syntax Tree)技术,将近千个测试文件、六千多条测试从 React Testing Library v13 迁移至 v14。文章展示了从制定迁移指南、分步提交 PR、编写 codemod、自动化验证到改进 AI 提示的完整过程,最后总结出 AI 在大规模代码迁移中的优势与局限,并强调“小步迭代 + 自动化验证”的工程基本功仍然至关重要。

[以下是方便搜索索引的大纲 (AI 生成),请读原文]
1. 项目背景与动机
• 公司使用旧版 React Testing Library 编写了 970 个测试文件,总计 6000 多测试用例。
• 升级至 v14 后 API 完全异步化,行为变化大,手动迁移代价极高。
• 作者决定尝试用 AI 辅助完成大规模迁移。

2. 准备与迁移指南
• 首次直接用 Claude Code CLI 自动迁移失败,暴露出测试失败过多、AI 调试混乱的问题。
• 于是转而使用 Claude Web 模式制作详细的迁移指南,分析版本差异与新 API。
• 确定主要变化:异步 API、测试 setup 模式更新、时序逻辑差异需人工介入。

3. 拆分改动与依赖并行安装
• 利用 NPM 的包别名功能同时运行 v13 与 v14,避免一次性大变更。
• 生成迁移指南并提交第一份 PR,保证团队迭代可控。

4. 编写与测试 codemod 自动化工具
• 使用 jscodeshift 解析代码为 AST,再生成批量修改工具。
• 编写输入输出测试用例以验证 codemod 效果(例如导入路径、 renderWithUserEvent 封装替换)。
• 自动测试 codemod 确保修改一致性和可验证性。

5. 实际迁移与 AI 协作循环
• 通过详细 prompt 指令让 Claude Code 分批迁移 10 个测试文件,执行 lint 检查与单测验证。
• 持续观察失败案例,不断改进 codemod 与迁移指南。
• 迁移指南从最初 4500 字扩充到 7500 字;codemod 从 271 行发展到近千行,测试覆盖更完备。
• 共执行 50 次迁移,形成 50 个独立 PR。

6. AI 性能与局限分析
• Claude Code 在调试测试与识别重复模式方面表现优异。
• 局限包括 context 深度不足、长任务遗忘指令、无法稳定维持覆盖率。
• 通过增加 JSON 格式的覆盖率报告输入,AI 能理解覆盖问题并修复。
• 网络波动与服务超限导致中断,验证仍需人工把关。

7. 工程启示与最终成果
• 整体用一周完成迁移,每个 PR 约半小时。
• 若纯人工迁移,估计需数月。
• 迁移过程机械但 AI 显著提升效率。
• 保持验证自动化、关注 edge case、理解底层工具机制,是让 AI 发挥价值的关键。
• 作者展望未来 AI 将进一步解放开发者,从“重复劳动”转向更有创造力的工作。


author Elio Capella Sánchez Migrating 6000 React tests using AI Agents and ASTs
#前端 #AI #ClaudeCode
这个好,现在可以用 cc 的插件弥补他的前端设计技能,
在 Claude Code 里用这两条命令:

/plugin marketplace add anthropics/claude-code

/plugin install frontend-design@claude-code-plugins

https://fixupx.com/trq212/status/1993786550656897491

Thariq(@trq212):Opus 4.5 is our best model yet for design & vision.
Here are some of my favorite UIs we made with Claude Code's frontend-design plugin.
To try this yourself add our marketplace in Claude Code:
/plugin marketplace add anthropics/claude-code
and then install the plugin:
/plugin install frontend-design@claude-code-plugins
#优质博文 #AI #工程实践 #ClaudeCode #工程化
非常好文章,在 X 上的 yousa:“我把前几天在Trae的分享整理成了文字稿“ 里看到的。
yousa (@y0usali): 我把前几天在Trae的分享整理成了文字稿
https://yousali.com/posts/20251124-how-to-coding-with-ai/」
这篇文章写给已经在或准备在真实生产项目里用 AI Coding 的后端 / 全栈工程师和技术管理者。
它不会教你「按钮在哪里」「哪个 prompt 最神」,而是想在大约 15 分钟里,帮你搞清楚三件事:
哪些任务交给 AI 最「划算」;
怎么让项目本身变得更「AI 友好」,提高一次命中率;
当生成不再是瓶颈时,工程师应该如何设计验证流程,把时间花在真正值钱的地方。


从「写代码」到「验代码」:AI 搭档写走 3 年,我踩出来的协作路线图

AI 摘要:作者总结三年 AI 编程经验,指出 AI 写代码的时代关键不在「准不准」而在「值不值」。文章从个人与团队两个视角分析了 AI 生成代码的最佳使用场景(高重复、低风险、易验证)、如何构建「AI 友好」项目,以及工程师心态从「写代码」到「验代码」的转变。核心结论是:生成已不再是瓶颈,验证才是新的核心;AI 的上限取决于给它的上下文(Context)。标准化与自动化是让 AI 值得信赖的关键,而工程师应成为定义任务与设计验证系统的「总工程师」。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 两种声音与早期弯路 —— 从试验到思考
AI 编程存在两极化认知:「神迹」与「玩具」并存。
• 初期盲目尝试,成功靠运气,暴露问题在于目标定义不清。
• 结论:关键在于明确「让 AI 干什么」,而非讨论「准不准」。

2. 从关注准确率到计算性价比 —— 「甜点区」的发现
• 引入「效率增益」公式衡量 AI 协作的价值。
• 四类高性价比任务:高重复、高耗时、低风险、易验证。
• 案例:模块化模板 + few-shot 示例提升生成质量。
• 心态转变:接受 AI 错误,注重系统级可靠性。
• 工程协作比喻:把 AI 当成「聪明但不熟悉项目的实习生」。

3. 团队视角的优化 —— 让项目更「AI 友好」
• 数据显示企业中 20%–30% 新代码由 AI 生成,但效率提升有限。
• 关键差异在于:项目是否标准化与自动化。
• 标准化**:统一接口规范、术语表、文档说明,让人机共享上下文。
自动化:降低验证成本,AI 助力 pre-commit、自动测试、CI/CD 等流程。
• 实践公式:讲清规则 → AI 辅助执行 → 人专注高价值审查。

4. 工程师的心理负担与注意力管理
• 高频切换任务使「注意力成本」爆炸,人类像「上下文很小的 LLM」。
• 心流(flow)被碎片化交互打断,导致疲惫与效率下降。
• 自救方法:时间分层、AI 时分复用、三分钟原则、沟通卫生与单线专注。
• 重点转移:保护注意力等于提升系统整体吞吐。

5. 稳定的两条工程原则
• 原则一:生成已非瓶颈,验证是核心
• 聚焦测试、监控、回滚机制。考核应基于 Bug Lead Time 而非代码量。
• 原则二:上下文为王(Context is King)
• 上下文完整度决定 AI 产出质量。
• 推广路径:统一规范 → 写进仓库 → 自动化验证。
• 单句箴言:AI 写代码的水平 = 你提供上下文的水平。

6. 给三类读者的建议
• 新手:从小型任务切入,先找「值不值」感受。
• 重度用户:从优化上下文与验证流程入手。
• 管理者:亲自尝试,引导从「个人提速」走向「团队工程化」。


author yousa
#碎碎念 #AI #前端 #设计
感觉 gemini 3 pro 的设计确实好有意思哦,给了我不少灵感
还能 border-radius: 60% 40% 30% 70% / 60% 30% 70% 40%; 这么玩儿()

要做一个无关紧要的官网,我给我们设计安利了 gemini 3 pro 说这个可以出原型,他试了一下一直在卧槽卧槽(直呼底层设计要失业)
(好吧大家一起失业吧x)

https://aistudio.google.com/apps
https://github.com/ZeroLu/awesome-gemini-ai
Media is too big
VIEW IN TELEGRAM
#优质博文 #AI #prompt #agents

How to write a great agents.md: Lessons from over 2,500 repositories

AI 摘要:本文分析了超过 2500 个公开仓库中的 agents.md 文件,归纳出优秀自定义代理(Custom Agent)的关键写法:让每个代理具备明确角色、具体命令、严格边界与真实示例。成功的代理不是“通用助手”,而是专职专家,如 @docs-agent 负责文档、 @test-agent 负责测试。掌握六个核心领域(命令、测试、项目结构、代码风格、Git 工作流、边界)即可写出高效 agent 文件。

[以下是方便搜索索引的大纲 (AI 生成),请读原文]
1. 背景与概念
• GitHub 推出新特性:以 agents.md 文件定义自定义代理(Custom Agent),让 Copilot 从通用助手变成具备明确角色的团队成员。
• 每个代理文件定义 persona(角色设定)、技能栈 (tech stack)、可操作命令、代码风格、及禁止行为。

2. 从 2500+ 文件分析得到的经验
• 成功的 agents 明确任务(如 documentation、testing、security),而失败的往往太模糊。
• 要点总结:
早放命令:在文件开头就定义可执行命令(含参数/flag)。
示例优于解释:展示代码风格比写长篇说明更有效。
明确边界:清楚列出“能做”“需确认”“禁止”的操作。
标注技术栈:注明版本与依赖,如 “React 18 + TypeScript + Vite + Tailwind CSS”。
六大领域覆盖:commands、testing、project structure、code style、git workflow、boundaries。

3. 优秀 agents.md 示例解构 (@docs-agent)
• 文件结构:YAML frontmatter 描述 → 角色与任务 → 项目知识 → 可用命令 → 写作准则 → 三层边界(Always / Ask first / Never)
• 成功原因:具体 persona、可执行命令在前、展示项目知识、有实例代码、边界分层清晰。

4. 构建你的第一个 agent
• 建议从小而具体的任务开始,如编写函数文档、添加单元测试、修复 linter 报错。
• 组成要素:名称、描述、persona 定义。
• Copilot 可辅助生成初稿,用 IDE 编辑 .github/agents/test-agent.md 并微调。

5. 实用代理类型推荐(六类)

@docs-agent:生成文档,读 src/ 写 docs/。
@test-agent:编写测试,永不删除失败测试。
@lint-agent:执行格式修复,仅限风格层面修改。
@api-agent:搭建 API 接口,修改数据结构需批准。
@dev-deploy-agent:仅部署到开发环境,操作需批准。
@security-agent(隐含):执行安全分析或代码扫描。

6. 模板与最佳实践
• Starter template 提供完整结构:frontmatter、persona、project knowledge、tools、standards、boundaries。
• 强调命名规范、风格示例与边界设置的重要性。

7. 结论与启示
• 优秀 agent ≠ 冗长 prompt,而是清晰角色手册 (operating manual)
• 核心在于:明确 persona、具体命令、真实样例、明确定义边界。
• 通过迭代完善 agent,让 Copilot 团队协作更像真实开发团队。


author Matt Nigh How to write a great agents.md: Lessons from over 2,500 repositories
#碎碎念 #美食 #AI
今天修了个疑难杂症,感觉乳腺都通畅了(奇妙形容x)
总之就是那种打通任督二脉的爽感,经常修 bug 的朋友应该都懂,还有内种 AI 修半天修不好(PS:AI 修的时候我在修别的 UI todo),气急败坏自己去看,然后一小时就修好了的爽感(?)

这种只有真机才能复现而且偶发的问题,应该说果然修不好()

ai 还是在那种好复现比较确定的场景好使

话又说回来我感觉 spec 只适合一些比较大的新需求的开发和重构,生成完 prd 再改,普通的修修改改什么的还是一句话直白

话又又说回来,今天这家咖啡馆的 buff 加成挺高的,幽静美丽,上午的我轻松悠闲,下午的我着急忙慌修 bug 🌚
#碎碎念 #AI
感觉公司报销的 100 刀的 claude code max 还是给我用的太爽了,还有 codex 接力来写。
我只需要提需求设计好架构,审代码就行了~
而 cc 要考虑的可就多了~~
ps: 这还是没有用 spec 开发烧的 token,要是用上面这个法子开发的话,那是烧 token 神器
#优质博文 #AI #生产力
很好的 AI 辅助开发实践总结,安利了 OpenSpec 感觉挺不错的~
OpenSpec 使用心得

AI 摘要:本文记录了作者在 AI 辅助开发中的经验演进,从早期的代码补全,到通过 OpenSpec 实现规范驱动的团队协作。OpenSpec 以“提案 + 规范”的模式,把每一次改动都变成可追溯的结构化流程,AI 不再仅是执行命令的工具,而能成为能理解上下文、可协作的开发伙伴。作者通过完整示例展示了 OpenSpec 的安装、初始化、提案、审阅与归档过程,强调“规范文件”才是项目的核心资产。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. AI 工具有机演进
• 从“补全时代”进化到“智能时代”,AI 角色由被动助手变为主动协作者。
• “洪荒—集成—增强—智能”四个阶段反映了工具从 Copilot、Cursor 到具备 MCP(Model Context Protocol)能力的 AI Agent 的演变。

2. 团队协作的痛点与 OpenSpec 的出现
• 团队在长对话中易出现上下文串台与信息丢失问题。
• OpenSpec 通过结构化的 proposal.md 让每次变更有清晰的 Why / What / How / Impact 记录。
• 规范驱动的文档体系保证项目约定可持久化,AI Agent 与新成员都能即刻理解项目背景。

3. 开发者角色的转变
• 开发者不再在指令层面操作 AI,而转为扮演“产品经理”或“团队 Leader”。
• 人负责提需求与审核,AI 负责起草与执行,实现工作分层与效率最大化。

4. OpenSpec 实践全流程
安装与初始化:通过 npm 安装并生成 openspec 项目结构(含 project.md、AGENTS.md、specs/、changes/ 等)。
创建提案AI 根据指令生成 proposal.md、tasks.md、spec.md,记录需求、任务与标准。
提案打磨:人机协作循环评审,持续优化内容与规范。
实施与归档AI 自动执行 openspec apply / archive 命令,所有过程留痕,形成项目知识库。

5. 实践心得与优势
• 使用者只需掌握 OpenSpec 流程,具体命令和实现由 AI 代劳。
• 项目文档成为最核心资产,使团队协作与知识传递更高效、透明、可靠。
• OpenSpec 提供了开发团队与 AI 共建标准化流程的现实范例。


author 4Ark GitHub - Fission-AI/OpenSpec: Spec-driven development for AI coding assistants.
#优质博文 #前端 #AI #MCP #工程化 #nextjs
Next.js DevTools MCP: Your Development Server Just Got Smarter

AI 摘要:本文介绍了由 Vercel 提供的 next-devtools-mcp 套件,它利用 Next.js 16+ 的内置 MCP (Model Context Protocol) 端点 /_next/mcp,让 AI 编码助手(如 Claude、Cursor、Gemini 等)直接访问开发服务器的实时运行数据,包括构建错误、运行错误、TypeScript 类型检查、页面路由、Server Action 定义、日志与配置,从而显著提升调试与代码生成的智能化水平。

[以下是方便搜索索引的大纲 (AI 生成),请读原文]
1. Next.js 16+ 的内置 MCP 支持
• 自 Next.js 16 起,框架内置 /_next/mcp 端点,可暴露实时的项目状态信息。
• 该端点支持 next-devtools-mcp 包进行自动发现与对接,无需额外配置。

2. 安装与集成方式
• 针对不同 AI 编辑器(Claude Code、OpenAI Codex、Google Gemini)提供简易的 npx 安装命令。
• 其他编辑器可通过在项目根目录添加 .mcp.json 文件实现集成。
• 重启开发服务器后,next-devtools-mcp 自动发现并连接 MCP 端点。

3. 实时错误访问与改进
• 在传统环境中,开发者只能复制错误日志手动传给 AI
• 使用 MCP 后,Claude 等助手能自动获取错误堆栈、类型及关联代码文件;
AI 可即时分析、修复并验证结果,大幅减少人工往返操作。

4. 内置工具与功能说明
• get_page_metadata:返回路由、组件与页面结构信息。
• get_project_metadata:暴露项目配置与依赖。
• get_server_action_by_id:查询特定 Server Action 定义。
• get_logs:访问开发服务器日志。
• nextjs_docs:查询官方文档并提供版本相关代码参考。
• upgrade_nextjs_16:运行 Next.js 16 升级代码改造。
• enable_cache_components:配置缓存组件并执行预检。
• browser_eval:通过 Playwright 集成运行浏览器测试。

5. 版本兼容与限制
• Next.js 16+ 获得完整支持,包括实时错误、状态与日志访问。
• Next.js 15 及更低版本仅支持部分功能,如升级脚本与文档查询。


author Trevor Lasn
#优质博文 #前端 #AI #新动态
Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1:2025 年 GitHub 的年度报告,比较有意思,摘了其中几个点看看:

1. GitHub 总用户达 1.8 亿,年增 3600 万,创下历史最高增长率。每秒新增 1 名开发者,印度贡献 500 万以上新用户,占全球新增 14%。

2. 生成式人工智能如今已成为开发中的标准配置。超过 110 万个公共代码库正在使用 LLM SDK,其中仅过去 12 个月就新增了 693,867 个项目(同比增长 178%)。开发者们还合并了创纪录的 5.187 亿个拉取请求(同比增长 29%),80% 的新开发者在第一周就开始使用 Copilot。

3. TypeScript 首次成为 GitHub 最常用语言,超越 Python 和 JavaScript。即便如此,Python 在人工智能和数据科学工作负载方面仍然占据主导地位,而 JavaScript/TypeScript 生态系统的整体活跃度仍然高于 Python 本身。

4. 总计 3.95 亿个公共存储库托管了 11.2 亿次贡献和 5.187 亿次合并拉取请求。

还有很多很多数据,感兴趣的建议阅读原文。 Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1
#优质博文 #AI
我使用 Claude Code 开发 Rolldown 的体验:在 Rolldown 开发中高强度使用 Claude Code 进行真实开发的思考与经验分享。

几个月前,我自认为对 AI 认知是比较贴切,能写点脚本、做下网页开发,但处理不了 Rolldown 这种复杂度的项目。
而现在,过去两周里,它几乎替我写了所有的代码。整个流程没有魔法,只有跟着官方文档《Claude Code: Best practices for agentic coding》的笨拙使用,仅仅是这样,就已经颠覆了我的认知。


author Yunfei He

周报 #102 - 我是如何使用 AI 里看到的文章,我觉得说的都挺对的,现在 AI 确实是很好的副驾驶了,我也是同时用着 codex / claude code / cursor 感觉爽翻天了。
#优质博文 #AI #浏览器 #ChatGPT #新动态
有人体验过了不,发的有点晚了,不过为 Codex 买的 ChatGPT Plus 好像又有点用了。
(没有说 Codex 不好的意思——只是 gpt 现在比较少用网页版都是用 api 了)
Introducing ChatGPT Atlas

AI 摘要:ChatGPT Atlas 是 OpenAI 推出的智能浏览器,将 ChatGPT 深度整合进网页使用场景,使 AI 能理解网页内容、保留浏览记忆、自动执行任务。用户在浏览时可直接与 ChatGPT 对话、分析网页或完成操作,无需切换应用。它支持可控的记忆功能(memory)、智能代理模式(agent mode)、隐私与家长管理等,旨在打造一个安全且高效的网页工作助手。目前支持 macOS,Windows 与移动版即将推出。
Introducing ChatGPT Atlas
#优质博文 #AI #MCP #GitHub #MCP #开源
Accelerate developer productivity with these 9 open source AI and MCP projects

AI 摘要:GitHub 携手 Microsoft OSPO、Copilot 与 VS Code 团队,赞助了九个基于 Model Context Protocol (MCP) 的开源项目,以促进 AI 工具与开发平台的深度结合。这些项目聚焦三大主题:框架与平台集成、AI 增强的开发体验、以及自动化与编排。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 框架与平台集成
• fastapi_mcp:将 FastAPI 端点暴露为安全的 MCP 工具,提供统一基础设施与认证机制。
• nuxt-mcp:面向 Nuxt 应用的调试与路由工具,帮助模型理解 Vite/Nuxt 架构代码。
• unity-mcp:连接 Unity 引擎 API,赋予 AI 管理游戏资产、场景和脚本的能力,实现智能自动化游戏开发。

2. 开发者体验与 AI 增强编码
• context7:提取项目中与版本关联的文档与示例,直接嵌入 LLM (Large Language Model) 提示上下文。
• serena:提供语义检索与代码编辑功能,支持面向代理(agent-driven)的编程流程。
• Peekaboo:分析 Swift 代码界面,为 AI 助手提供可操作的 GUI 自动化上下文。
• coderunner:让 LLM 能在本地沙盒中自动执行与安装依赖,实现即时代码运行与结果反馈。

3. 自动化、测试与编排
• n8n-mcp:为 n8n 平台注入 AI 驱动的工作流自动化,优化节点理解与流程创建。
• inspector:测试与调试 MCP 服务器的工具,支持协议握手检查、OAuth 流程追踪与安全评估模拟。
Accelerate developer productivity with these 9 open source AI and MCP projects
#优质博文 #编程语言 #AI #软件工程
有点子感慨呢,不过话说回来 JS 和 TS 是不是得看合起来的排行(x)
(这种榜单基本上图一乐,真用啥是无所谓的,语言都是相通的)

IEEE 发布了 2025 年顶级编程语言的榜单,Python 再次蝉联第一,JavaScript 和 TypeScript 分别位列第 6 和第 7。

The Top Programming Languages 2025

AI 摘要:文章介绍了 2025 年最新的编程语言排行榜,并指出 Python 继续保持第一;与此同时,JavaScript 的影响力下降。作者进一步探讨了 AI(尤其是大型语言模型 LLM)的崛起如何改变了编程生态,使程序员更少依赖公共知识平台,导致传统衡量语言“流行度”的指标逐步失效。更深层次的趋势是:随着编程被 AI 辅助或部分取代,编程语言的差异性和重要性正在逐渐削弱,程序员未来的价值或将转向算法设计、系统架构与领域知识,而非语言本身。


[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 2025 年编程语言排行榜与现状
• Python 再次蝉联第一,且在 Jobs 排名中超越 SQL 位列首位
• JavaScript 从第三名跌至第六,或受 AI 辅助网站开发的影响
• SQL 技能依然是职场硬通货

2. 流行度测量的困境
• 排行使用多源指标:Google 搜索、Stack Exchange、GitHub 开源活跃度、论文提及等
AI 助手 (Claude, ChatGPT, Cursor) 改变了程序员获取知识的方式
• Stack Exchange 提问量锐减至去年同期的 22%,公开数据信号衰弱

3. AI 对语言的重要性削弱
AI 承担语法、结构甚至函数编写,弱化了语言细节的意义
• 未来选择语言可能等同于选择 CPU 指令集般无关紧要
• 新语言难以获取足够的训练数据支撑,不易突破 AI 劣势

4. 新语言诞生的障碍
• 过去依靠书籍、教程与社区 evangelism 推动采用
• LLM 需要海量样本,小众语言表现不佳
AI 消融了过去促使新语言诞生的“语言痛点”

5. 编程语言的未来角色
• 高级语言本质是抽象与防止“自废武功”,历史源于结构化编程运动
• 硬件层仍然是“Go To”逻辑,AI 或直达中间表示 (intermediate representation)
• 未来可能不需要传统高级语言,转向 prompt → 中间语言 → 编译

6. 程序员角色与教育转变
• 程序员未来关注点转向算法选择、软件架构、系统接口
• 计算机科学教育因注重基本原理而更具价值,相对高于短期 bootcamp 培训
• 未来衡量流行度需探索全新指标
#优质博文 #Chrome #DevTools #AI #MCP #前端 #CSS #浏览器
最近比较忙,这个发的有点晚了~不过大家应该都看到了~
Chrome DevTools (MCP) for your AI agent

AI 摘要:本文介绍了 Chrome 新发布的 DevTools MCP 服务,它通过 Model Context Protocol (MCP) 将大型语言模型 (LLM) 与 Chrome DevTools 连接,使 AI 编程助手能够实时调试网页、诊断错误、模拟用户操作、分析性能问题等,从而提升生成代码的可用性和准确性。文章同时提供了使用场景示例、配置方法以及社区参与途径。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 背景与意义
AI 编程助手生成代码时往往无法看到运行效果,相当于“蒙着眼睛编程”。
• Chrome DevTools MCP 服务解决了这一问题,直接让 AI 编程助手接入浏览器调试环境。

2. Model Context Protocol (MCP) 概述
• MCP 是一个开源标准,用于连接大型语言模型 (LLM) 与外部工具和数据源。
• Chrome DevTools MCP server 将调试与性能分析能力引入 AI agent。
• 示例工具:performance_start_trace,可自动启动 Chrome 并记录性能数据以供分析。

3. 应用场景与示例
实时验证代码修改AI agent 可直接在浏览器中确认修改是否生效。
诊断网络与控制台错误AI 可检查网络请求和日志,排查如 CORS 问题。
模拟用户行为:自动执行表单填写、点击测试,复现功能性 bug。
调试样式与布局问题:实时检查 DOM 和 CSS,解决复杂样式错误。
自动化性能审计:运行性能追踪,分析如 LCP (Largest Contentful Paint) 等指标。

4. 使用与配置方法
• 配置方式:在 MCP client 中添加 chrome-devtools 服务。
• 测试示例:运行 prompt "Please check the LCP of web.dev."。
• 更多工具参考:见 tool reference documentation

5. 社区参与与后续发展
• 当前为公测版本,功能会逐步增加。
• 欢迎开发者与厂商反馈需求与问题。
• 参与方式:通过 GitHub issue 提交建议或 bug。


author Mathias Bynens, Michael Hablich Chrome DevTools (MCP) for your AI agent  |  Blog  |  Chrome for Developers
#优质博文 #AI #PromptEngineering
GPT-5-Codex Prompting Guide | OpenAI Cookbook

AI 摘要:本文介绍了 GPT-5-Codex 的特点与最佳提示实践,强调该模型在交互式与代理型编程任务中的独特优化。与通用 GPT-5 相比,其提示设计遵循“少即是多”,减少额外指令和冗余说明。文档详细说明了 CLI 环境下的开发者消息规范、工具权限设置、代码审查方法,以及避免过度提示的反向调优策略,帮助开发者更高效利用 GPT-5-Codex 进行真实世界的软件工程。

[以下是方便搜索索引的大纲(AI 生成),请读原文]
1. 模型介绍与定位
• GPT-5-Codex 并非 GPT-5 的直接替代品,而是为 agentic coding 与交互式任务优化。
• 在 Responses API 下支持使用,但不支持 verbosity 参数。
• 专注于真实软件工程场景:快速交互与长时段独立任务皆擅长。

2. 模型核心优势
• 改进的可控性(steerability):在功能开发、调试、测试、重构和代码评审中更高效。
• 自适应推理(adaptive reasoning):根据任务复杂度调整响应速度与深度。
• 出色的代码评审能力:能检查代码库并运行测试以验证正确性。

3. 提示词设计原则
• 遵循“less is more”策略:提示词应尽量简洁。
• 移除不必要的序言(preambles),避免模型提前中止输出。
• 工具使用应限制在 terminal tool 与 apply_patch,并保持描述简洁。
• Codex CLI 的开发者提示比 GPT-5 标准提示精简约 40%。

4. Codex CLI 使用规范
• Shell 调用规范:推荐使用 bash -lc,设置 workdir 参数,优先使用 rg。
• 编辑约束:默认 ASCII,谨慎处理非 ASCII 字符,避免回退用户未要求的改动。
• 规划工具使用:非简单任务才使用,避免生成单步骤计划。
• 沙箱(sandbox)与权限策略:详细定义了文件系统、网络与命令权限的审批机制。

5. 特殊请求处理
• 简单查询用 shell 命令直接解决(如 date)。
• 代码评审流程:先列出问题、风险与缺陷,再简要总结。
• 呈现结果时避免冗余输出,注重可读性与协作感。

6. 输出与风格规范
• 输出为纯文本,适当使用代码块、斜体、行内代码。
• 遵循简洁、协作的语气;优先逻辑清晰而非机械化格式。
• 文件路径引用需独立,遵循特定格式(src/app.ts:42)。

7. Anti-Prompting(避免额外提示的策略)
• 自适应推理已内置,无需额外提示“思考更深”或“快速回答”。
• 长任务规划能力已训练,不需额外计划引导。
• 不生成 preamble,只有必要时才总结。
• 前端默认采用现代最佳实践,可通过短指令指定框架与库(如 React + TypeScript + Tailwind CSS)。


author OpenAI Cookbook Team GPT-5-Codex Prompting Guide | OpenAI Cookbook
#优质博文 #科研工具 #AI #文献管理 #学术搜索
WisPaper:搜、问、读,陪你一起搞科研的专业Agent

AI 摘要:WisPaper是复旦大学研发的一款免费AI学术工具,旨在帮助科研人员解决文献检索和阅读难题。它提供AI智能搜索功能,能精准查找海外权威期刊,并支持本地文件库的智能搜索。此外,WisPaper还能进行文献深度对话、精准翻译以及一键提炼文献核心论点、研究方法和关键结论,显著提高科研效率。

author 小众软件 WisPaper | Scholar Search, Literature Review, AI Research Feeds
 
 
Back to Top