有的没的
gemini pro 和 claude 相互做代码审查非常好。

以下是我写的一个 telegram聊天记录搜索api.他部署在 cf worker.
他接到请求之后会先读取存储到 r2 的聊天记录 ndjson,再按照关键字搜索。
上次我已经更改了诸多特性,请你进行代码审查。
下面我附上上次的 checkpoint prompt,以及代码


每次审查出问题修复,并且出一个 checkpoint prompt
好的,就目前版本做出的改变和脚本总体的feature,总结一个 checkpoint prompt, 以便下轮对话使用。


ai 优化后的 checkpoint summary prompt:
请根据截至目前的对话内容,生成一个结构化的 checkpoint 总结,用于在后续对话中快速恢复上下文。总结应包含以下部分:

1. 【项目目标】简要重述当前脚本的核心功能与设计初衷。
2. 【已实现功能】列出目前已完成的主要特性或模块,按优先级或逻辑分组。
3. 【关键变更记录】概述本轮迭代中做出的重要修改及其原因(如重构、新增逻辑、修复问题等)。
4. 【待办事项 & 下一步计划】明确接下来需要实现的功能、待验证的问题或潜在优化方向。
5. 【上下文提示】提取可用于下轮对话的关键词、技术栈、约束条件或特殊需求。

请保持语言简洁准确,便于复制粘贴作为新对话的起始 prompt。

#ai #programming #prompt
说到agent vibe coding, 我已经被最先使用全自动agent vibe coding的那些人落下了得有一年的时间了

以前以为用个copilot edit打开VSc,然后对我标签页的代码删删改改就是vibe coding

现在才知道啥是真正的vibe coding

但是这最大的原因是因为我感觉cursor搞起来很麻烦 经常被和谐 这么繁琐的事情也并不是我急切需要,没有就不行的 所以也就一直搁置了

还好现在有gemini qwen 两个大善人能给我开放免费名额,让我一试

还是便宜治百病呀~

#ai
前天课上无聊,在妖火发了一个帖子,询问现在agent编程的大家的选择. 要火总是每个人都很热情, 大家各种推荐.

当天下午我就下载了gemini-cli,还有qwen code.

以前一直都是在用github pilot edit, 只针对于单文件. 或者是干脆就是在claude的网页端询问.

这次使用了agent之后, 第一次感受到了vibe coding 原来是这样子. 可以自己扫描工作目录下的文件, 自己创建或者是删除.但是我还是偏向于ask every time, 而不是给full permission.

以后编程真的像是在做游戏了.

就像这几天一直在修缮我的tg索引. 把他一个从纯前端的实现做成一个后端的动态网页加上r2.

在来来回回debug的过程中, 感觉到我发挥的作用还是非常明显的. 因为没有一站式的本地开发环境, 没有nodejs,wrangler之类的, 只能靠用cf面板来进行编程, 所以说agent无法完成一个闭环,可能有了本地环境他也能做一些测试.
这样他在产出代码之前,我会先看一遍逻辑,检查一遍里边儿是否和他提出的目标相符.

实际上检查出了很多次说了改,但是实际上没改的情况. 这也就不得不提到前端,后端分离的框架带来文件增多,然后llm可能就是拆东墙补西墙. 这种情况发生在qwen3模型上很多

因为我对js还处于一个比较基础的小白水平, 但是对于Python就比较懂。 看他们写出来的Python代码 差不多就了解了他们的逻辑 看出了一些他们漏掉的东西,然后抓紧让他们继续修补。

对于js我的控制能力可能就没那么强,只能当英文作文看

总的来说,人工代码审查还是非常有必要的。 否则llm也是其实在试错,比如借助本地开发环境的多次运行查看编译错误来进行下次修补. 但是如果没有本地运行环境,那只能靠人眼或者手动部署了

#ai #programming
觉得llm的quota快到了,可以让他导出目前聊天的checkpoint:
请导出目前聊天的Chat checkpoint prompt, 以便我下次接续目前的工作进度


#ai #programming
主流 AI 提示词优化工具推荐(2025 全面对比指南)

via 掘金人工智能本月最热 (author: 一点一木)



#bm #ai
现在使用https://1key.me 验证gemini 真方便

Google Gemini学生验证:

访问https://gemini.google/students/ 生成sheerid 的链接如https://services.sheerid.com/verify/67c8c14f5f17a83b745e3f82/?verificationId=68b8e16a57ab4b******
https://1key.me/ 打开
全局梯子到美丽国
点击开始验证按钮
排队等待执行就好了
image
重新打开https://gemini.google/students/ 页面绑定国内VISA卡信息,我用的是招商银行的
认证成功
image
记得到Google Play取消订阅,否则后面可能会自动扣款


#programming #ai Gemini for Students — your AI study buddy from Google
Prompt Engineering: What Actually Works (Without the 8-Hour Hype)

I’ve seen people drop 8-hour-long videos on prompt engineering, and honestly, my reaction is 🤦‍♂️.

I won’t bore you with the obvious stuff or overcomplicate things. Instead, I want to share a few practical techniques that actually helped me write better prompts, some common sense, some hard-earned lessons. Most of what I’m sharing comes from the book Hands-On Large Language Models

So here’s what I’ve learned that actually works:

1. Specificity

This one seems obvious, but it’s also the most commonly missed.

A vague prompt gives you a vague answer. The more precise you are about your goal, format, and constraints, the better the result.

Bad Prompt:

Write something about climate change.

Good Prompt:

Write a 100-word summary on how climate change affects sea levels, using simple language for a high school audience.

See the difference? Specific inputs = Specific outputs.

2. Hallucination Guardrail

We all know that LLMs hallucinate, they confidently make stuff up.

A surprisingly simple trick: Tell it not to.

Try this prompt:

If you don’t know the answer, respond with ‘I don’t know.’ Don’t make anything up.

This becomes really important when you're designing apps or knowledge assistants. It helps reduce the risk of wrong answers.

3. Order Matters

This was a surprise to me and I learned it from the book.

Where you place your instruction in a long prompt matters. Either put it right at the start or at the end. LLMs often forget what’s in the middle (especially in long prompts).

Example:

Here's a paragraph. Also here's a use case. Here's some random info. Now summarize.

Summarize the following paragraph:" [then the content]

Simple shift, big difference.



Other Techniques That Help Me Daily

1. Persona:

Set the role clearly.

You are an expert Python developer who writes clean code.

This changes the behavior completely.

2. Audience Awareness:

My favorite when I want to simplify things.

Explain this like I’m five.

Works brilliantly for breaking down tough concepts.

3. Tone:

Underrated but essential.

Want a formal reply?

Write this in a professional tone for a client. vs Make this sound like I’m texting a friend.

4. Instruction / Context:

Always useful.

Summarize the following news article in bullet points.

Gives the model direction and expected output format.

5. Grammar Fixing:

As a non-native English speaker, this one’s gold for me.

Fix the grammar and make it sound more natural.

It has helped me immensely in writing better content, emails, blogs, even this post :-)

These are the techniques I use regularly. If you have your own prompt engineering hacks, I’d love to hear them, drop them in the comments!



https://www.reddit.com/r/LocalLLaMA/s/5pIxRi5BU6


#ai
[标题]分享下我平时用的AI工具(阅866)
[时间]2025-07-19 07:39获赏666
1.RooCode (vscode插件)
2.Augment (vscode插件) 新手推荐使用这个,真的非常强,去买白嫖号或者买续杯的软件授权,当然自己注册也行,只不过感觉不方便,我个人喜欢花点小钱把时间花在更有意义的事情上面

3.claudecode (终端部署的)

然后说下提示词:参考claudecode官方的提示词改就行了,虽然简短,但是非常有用。

https://claude.ai/public/artifacts/e2725e41-cca5-48e5-9c15-6eab92012e75

另外写代码,context7 这个mcp服务器非常有用
在写一起程序或者啥玩意前应该先让AI写好规划,不懂可以问AI还有没有推荐的优化之类的,一路planmore就对了,感觉差不多了就可以写好规划的文件,然后才开始编写。
mcp:
sequentialthinking
context7

辅助开发的,sequentialthinking基本不用管 会自己调用,context7需要人工跟ai说,调用contex7查询对应的最新文档,有助于开发

以上两个是必备的,其他推荐:
fetch
playwright

然后还有很多有用的mcp,不过没必要举出来了,因为写代码主要就是context7 和sequentialthinking这两个是必备的,其他看情况,没有必要看到啥mcp都塞进去,其实当你装好后后续基本上用不上几个,没必要把过多时间花费在寻找各种mcp这里。

roocode,是免费的可以自定义API
Augment 可以白嫖,也可以咸鱼买号
claudecode 需要找教程替换api和模型,然后就可以不用付费claude,但是不付费肯定就没有强大的claude模型使用,使用自定义的API和模型,但是Claudecode非常好用,就算使用kimi-k2和gemini2.5pro也是很强,但是前两天我再用了下gemini变弱智了,不知道是Gemini这边下魔法了还是咋的。

然后Gemini2.5pro,可以到下面的地址注册,使用freee分组API,可以免费使用Gemini2.5pro,是我的轮询号
https://newapi.eve.ink/
有看到其他付费模型可以不用,当然也可以用,有些是不免费的,我也是自建个API方便自己使用的,我不可能全部免费,Gemini可以用免费号轮询,其他模型是对接别人的中转站API,也是成本价摆上去的,所以不要看到其他模型收费就跑来喷引流
中转站API推荐这家,非常便宜:https://www.mnapi.com/
你也可以使用这家其他模型,我就是对接这家的claude gpt啥的,但是这个家不太稳定是真的,其他些中转站稳定就贵,我就懒得推荐了,三色图奉上

#ai Complete Claude Code Commands Documentation | Claude
今天学会了vscode 快速切换copilot账户的方法。。。

那。。。copilot edit应该够用了

还没有用过cursor不知道和copilot差距有多大 但是cursor不够大方呀

#ai #programming
今天第一次打造了docker image, 通过 github action!

起因是之前用的ghmodelapi这个镜像没有arm的。

在容器内找到了他的dockerfile、程序源代码等,交给ai来写一个github action的workflow yaml. 因为github action支持arm架构的runner,所以这就太合适了。


最后编译的很棒。也push到了ghcr上. 那么至此,gh model balancer从chi迁移到本地.3了。

以前我不会写workflow yaml, 而迟迟阻止我用action,现在有了ai,用action就没有阻碍了。。

以前dockerfile我只能读不会写,现在有了ai,也没有阻碍了。。。


我现在还不知道ai到底是起到了正作用还是反作用。

让我可以尝试更多的事儿 但是我也变懒了


#ai #programming
经典言论


技术不值钱了,现在唯一值钱的就是钱了,房子也不值钱,哎

新的牛马(毕业生)利用 AI 立马成为一个老手,最后比拼的全成了体力和加班时长了


感觉 claude code 让我成为了技术 leader - V2EX
https://www.v2ex.com/t/1141322#reply52


#ai #life
这几天做专业介绍的 ppt,苦于把 ppt 转为 md。

之前都是用 ppt 保存为 pdf,然后在https://pdf2md.morethan.io/ 转换为 md

今上午试了一下微软的 markitdown 这个 python 库,发现还阔以。直接 markitdown file -o output.md

#programming #ai
今天实践了手动 rag,提取相关文档的内容加入到 prompt 里面。

pdf 转 md 使用了https://pdf2md.morethan.io/

然后 md 中写明白引用的章节。

一般就是 三个### 加上材料的名字,比如:
### 学院信息


引用的时候,使用[文字](#章节名字)来引用,比如
[学院介绍](#学院信息)

这样,按住cmd再点击就跳转到相应位置了。

可能不这么引用,llm也会自己找到···这么做确实有点麻烦,但是更精确吧。


#programming #ai
最近 open webui更新新版本后,在我的 ios16.2 的 safari 上发现历史会话的所有LLM 的回复都变成空白了。

查找了一下问题,在 issue 发现了解决方案。
首先推荐使用 0.6.10 这个版本试一下。如果还不行就在容器里执行
find /app/build/_app/immutable/chunks/*.js -exec sed -i -e "s/.split(new RegExp(\"(?<=\[.\!?\])\\\\\\\\s+\"));/.match(\\/\\[^.?\!\]+\[.\!?\]+\[\\\\])'\"\`\’\”\]\*|.+\/g)||\[\];/g" {} \;



#AI #openwebui
把 gemini balancer 迁移到 x96 上了,没做外网映射,然后再 owu 上面配了内网地址,结果内外网都能用。看来是 owu 后端发的模型请求。

这就太妙了,部署在本地的响应速度直接缩短了至少 50%。

#tech #ai
DeepWiki 一个涵盖所有 GitHub 代码库的免费百科全书

您可以将任何公共 GitHub 代码库的 URL 替换为“ https:// deepwiki. com/org/repo ” 即可获得类似维基百科的精准库描述。

DeepWiki歸藏

📮投稿 ☘️频道 🌸聊天


#bm #ai
 
 
Back to Top