技术行业资讯
来自 Hacker News、Reddit 的开发者社区精华讨论,共 75 篇
招聘 java 全栈 硬性要求: 统招大学及以上学历,计算机相关专业。 精通 java 基础 熟练使用 springboot springcloud dubbo mybatisplus 常用技术 熟练使用 mysql 数据库,有数据库优化经验,索引创建等。使用过 pgsql 更好 熟练使用 redis ,要会点 lua 脚本。 熟练使用常用中间件,mq es 等。 有 IM 即时通讯经验更好。 了解使用过 netty 和 websocket 。 前端要求: 会使用 vue 了解 nodejs 精通 ts 。 薪资待遇: 10000 起,面试定薪资。 小伙伴可以私聊我微信 cGFzdF90b193aW5k ,或者直接发简历到我的邮箱 MzA5NjkzMjMyQHFxLmNvbQ== 替朋友发的, 轻喷~
大家好,我刚上架了一个 iOS frp 客户端:Burrow Tunnel 。 App Store: https://apps.apple.com/cn/app/burrow/id6764009166 它主要给已经在用 frp / 想自己折腾内网穿透的人用:把 frp visitor 、SSH 终端、SFTP 文件、内网 Web 这四件事做在一个 App 里,全端到端加密,流量只走你自己的 frps ,没有第三方碰你家里的网络。FTP 目前只能看文件目录,不能在里面浏览,后续看情况应该会加。 我自己做它的出发点是:用 frp 多年,但 iOS 上一直没找到能用的 frp 客户端。出门在外想 SSH 进家里看一眼 docker / 跑命令,得先掏 Mac 。特别是最近小龙虾、hermes 比较火,家里跑的 agent 挂了,用手机里这个 App ,一行 restart 就能救活。顺手把「点开 iLO 给关机的服务器远程开机」也做进来了(只适用于 HPE ,可以用开源的 WoL 替代),对 homelab 党来说挺关键。后面可能也会为围绕着本地 agent 做一些更新,让自己用着更顺手。 另外也想了解大家「家里那一柜子机器」的组合:硬件 + 上面跑啥 + 在外面用什么方式远程访问。随便晒
之前想教小朋友古法编程,小朋友似乎不感兴趣,遂没有下文。 前一段时间买了个便携显示器,把闲置很久的 orange pi5 跑起来,让小朋友用 AI 写游戏。 帮忙搭建了开发环境( Trae )、编写 Agent.md 、加载 SKILLS 。 有空就和小朋友一起调教机器人,没空就让他自己玩。 小朋友玩的挺开心的。他的小伙伴看到后也回家让家长整了个环境写游戏。 在未来,普通人也可以在 AI 的加持下为自己定制一些工具来提高工作效率。另外和 AI 的沟通同样需要技巧,用 AI 写游戏可以让小朋友熟悉如何使用 AI ,了解 AI 能力的边界。
想搞一台玩玩,目前看到最低都是东东,其中一加 15 最低 3199 ,15T 最低 2998 了今天。 我这个价格没有任何金币、会员之类的叠加,我也没那些东西,考虑到苹果今年还没出手,感觉还能再低?
下载 0.22.2 网站如果有 theme-color ,现在可以显示成这样(类似 Safari 对 theme-color 的支持效果):
做了一个 All-in-One 的 AI 视频 / 图片生成平台,把主流模型放在同一个积分池里,按用量计费,不用为了某一两次需求单独订阅一整年。 目前集成的模型: 视频:Veo 3.1 ( Fast / Lite / Quality )、Kling 2.1 / 2.5 / 2.6 / 3.0 、Runway Gen-4 Turbo 、Seedance V1 / 1.5 / 2 、Hailuo 02 / 2.3 、Grok Imagine 、Wan 2.2 / 2.5 / 2.6 图片:Nano Banana / Nano Banana 2 / Nano Banana Pro 、GPT-Image 1.5 / 2 、Seedream 4 / 4.5 / 5 Lite 、Flux 2 Pro / Flex 、Ideogram V3 、Qwen 2 、Z-Image 、Grok Imagine 支持的功能: 视频:文生视频、图生视频、参考图生视频、首尾帧生视频、动作迁移( Mimic Motion )、视频续接( Video Extender )、视频特效 图片:文生图、图生图、扩图( Image Extender )、背景去除、照片特效 生成结果统一在 Assets 里管理,可以直接复用为下一次生成的输入 主流模型单独订阅各家一份,一个月几百刀就出去了,配额还多数用不完。聚合后 $9/月起,年付直接 7 折( Starter 年付 $76 、Standard 年付 $160 、Premium 年付 $326 )。注册即赠 10 积分,可以先试再决定要不要付费。 输出 4K / 1080P ,商用许可,生成的内容可以直接用在客户项目里。 V2EX 专属优惠码:WELCOM20 (首月额外 20% off ) 网址: https://mojomake.com
【摘要】从一个真实案例理解 JVM 标量替换 这不是一篇概念科普文,而是从真实代码出发,一步一步走到 JVM 能力边界的分析记录。 什么是标量替换 标量替换是 JIT(主要是 C2 编译器)的一种优化:如果 JVM 能证明一个对象不逃逸、生命周期完全受控、不需要对象身份(identity),就会彻底消除对象 阅读全文
关于 AgenTank ,之前发过贴: https://v2ex.com/t/1212167?p=1#reply59 来的 V 友还挺多的,所以直接办个小比赛,奖金 50$ ,欢迎大家来参与!期待看到你们的坦克! 这个比赛晚上 10 点会自动开始,然后直播赛况,每一场比赛也会回放 我现在还在 vibe ,真的觉得它还挺好玩的哈哈 比赛报名入口: https://agentank.ai/super-competitions/cup_H7blYCwgLUw0A70s4
最近在面试 Python 开发岗,发现很多人的项目经历写得千篇一律:Django/Flask/FastAPI 里用一两个框架,再蹭个 AI Agent 的热点。 但我比较在意的是具体用过哪些核心库,尤其是 HTTP 相关的——因为我们核心业务就是接口转发、调用、数据转换。 我主要问了两个问题: Django 里怎么接收不同结构的 JSON 请求,并修改后转发给第三方接口? 怎么用 requests 发送 JSON 请求? 我也不指望面试人把每一步代码都完美背出来,主要是想看有没有做过类似的事,对 requests 的掌握到什么程度。 结果对方直接反感了,说:"你问我所有细节我肯定答不出。" 我就追问了一个流程性的问题——Django 实现 JWT 用了哪个库、具体怎么用的——他说忘了,然后直接生气了,说你要后面一直问这么细的话我肯定是都答不出来的,我也回答说不会因为你答不出来就判断,这才第二个问题,但是他还是强调这样,很生气。 我看他这样也就直接中断了面试。 想问问大家:我问得这么细,是不是有点吹毛求疵了?
94 年,一人吃饱全家不饿。 原生家庭比较差,学习一般考了个大专,后来大三那年考了专升本,车辆工程专业,刚毕业去了制造厂,吃不了苦,就一边自学了前端,然后感觉差不多了出来找工作, 还记得 18 年第一份工作 007 睡公司干了三个月后来扛不住,跳了另一家 996 干了半年,可能比较浮躁吧,想找个双休的,就继续面了 当时运气比较好又面到一家搞区块链的小公司,团队也很和谐 wlb ,不打卡,leader 是阿里出来的,四十多岁但是看起来也就三十。就这样工作了俩年多,离职原因嘛,其实想着跳一个 20k 的,因为身边认识的熟人不是大厂就是高薪,就觉得自己也可以。 其实主要是一直以来工作的公司都是独自一个人干活,一个人解决问题,现在想想是我膨胀了 后来嘛,大厂没面上,小厂不想去,就去了个搞政企的中厂,去的原因也很简单,当时面试的时候说会组建新团队,我是作为前端 leader 进去的。 结果事与愿违刚刚好那三年不景气,业务收缩,也没组建团队的可能了,又是一个人攻坚了俩年多 23 年放开了,公司也撑不下去了,要裁员,当时还是比较膨胀的状态,就也不想折腾,好聚好散,主动离职,继续找工作,这次打击比较大,面了很多家都 pass 了 有了不想卷佛系的想法,去外包了三个月,快转正的时候,想了想不能继续外包了,就离职了继续找,这个 gap 了四个月,再然后就面到了蚂蚁下面的数字马力, 随后就来到了郑州,其实是抱着养老的想法来的,后来发现业务一点也不轻松,加上个人习惯事事有始有终,电脑不离身,随时 oncall ,其实也挺累的,就这样恍恍惚惚呆了差不多三年到现在 然后被通知合同不续签了,虽然有赔偿吧,就是觉得不开心 ai 大跃进其实也都懂,有考虑过转行,但是这么多年了,不写代码也不知道能做什么,上班工作,已经是填补生活空虚的必需品了 这几天开始看看 python ,langchain ,agent 开发什么的 顺便也继续投前端岗位,已读不回,未读不回 空闲的时候想想挺失败的,身无一物,孑然一身,一事无成 早年因为心理阴影没谈过恋爱,母胎 solo ,现在又开始羡慕别人幸福圆满的家庭 仔仔细细这一生,真够失败的 大概再也找不到生命的意义了吧 有些话一个人憋了有点久,借此机会发点碎碎念 2026 年 5 月 13 日 15:57 分
我在网上看到了 ClaudeCode 的一个人,好像是高管吧。说自己在手机上面同时操控几千个 AIAgent ,帮他研究任务。 我看自己的每天的工作,就是打开 cursor 然后跟 Agent 聊天。这样的工作貌似在手机上面也可以,我想有没有什么程序可以提供优秀的手机 Agent 工作聊天体验。无聊的时候设计设计自己的程序,如果没有的话我就自己写一个,但是在写之前我想问问有没有类似可以做的不错的成品。
【摘要】title: 关于 Hermes Agent 的补充 author: 凌杰 date: 2026-05-05 tags: Hermes-Agent OpenClaw categories: 软件配置与使用 [!NOTE] 笔记说明 这篇笔记是对 Agent 系列笔记的补充,主要用于补充介绍 Herm 阅读全文
最近随便翻到一个视频下载网站,感觉居然还不错: https://www.geteasydown.com/ 试了下: 抖音能下 TikTok 能下 YouTube 也能下 手机直接开网页就能用
新开新项目,有什么适合前端用的热门 skills 推荐, Claude 设计也是用的 Claude Design
目前团队几个人使用 ClaudeCode 和 GPT 都一年左右了,原先都是 20 刀订阅,今年狠狠心,全部换成了 200 刀订阅。GPT 做架构设计,Opus 编码,然后 GPT 做测试审计,整个流程跑下来非常丝滑。但是 claude.md 文件里面要配置好。 中间有 2 个同事的 claude 被封过,后面调整过之后,至今半年没有被封、也没有要求实名认证过。关键信息如下: 1.最好是只能用于编码,在 claude 和 gpt 自己的原生 code app 里面使用和 vscode 插件中使用都可以。如果被检查到经常用于 hermes 、openclaw ,被封的概率很高。这个点估计很多人没意识到。背后原因就是 CC 知道你是翻墙用的,但是能做有价值的小白鼠,就不会卡很严格。 2.频繁切换 IP ,或多人共用一个 IP 。IP 在封控里面的权重比较高,但并不是因为 IP type 是 hosting 或者 proxy 而风险高,是经常切换 IP ,而这个 IP 又不是动态住宅 IP 。我们现在一人一个 IP ,都是 hosting ,只要不切换,一年多了也没事。 3.我们都是用的虚拟信用卡付款,每人一个独立的虚拟信用卡。这里有个点很关键,虚拟信用卡的账单地址和 CC 、GPT 里面填写的地址必须 100%一样,否则付款不成功。账单地址从 gg maps 里面找真实的。 4.一个 Claud 、GPT 账号,最好只允许 3 台设备登录,最好三台设备 IP 一致。家里电脑、办公电脑、手机,最好使用同一个 IP 出口。如果多设备、多 IP 登录,会有共享账号的风险。 5.对抗风控是超级复杂的事情,如果被封,不仅仅是换 IP 的问题,软件环境、硬件环境都需要做混淆切换,它很牛逼的一点是,可以通过对话来提取个人识别信息。
【摘要】题目链接:https://match.yuanrenxue.cn/match/9 常规操作,请求翻几页看看,目测请求参数和响应没有什么特殊的加密,请求头中cookie有个m是加密的。 hook cookie脚本启动,能看到断点处是在set的时候进去的⬇️ 遇到无限debugger时,鼠标右键不在这里 阅读全文
让大家见笑 公众号文章地址: https://mp.weixin.qq.com/s/u3BFAA2uFraXcAo7XZaRlg CF 部署稍显复杂,后期实现双向同步 多台 Apple 设备开启 iCloud Safari 书签同步和 Firefox sync 、Google sync 只需要在其中一台 Mac 上操作一次,即可实现自动同步
Comments
youtogame.com 网站是一个专为华人用户提供全球话费充值,全球礼品卡,会员订阅充值平台, 平台支持国内话费自动充值,支持美国,加拿大,澳大利亚等全球 190 多个国家和地区手机话费自动充值 平台提供国内游戏直播自动充值,支持抖音,快手,虎牙,,斗鱼,等等几十个直播娱乐平台自动充值 购买全球游戏点卡,平台支持购买 steam ,任天堂,PSN ,XBOX ,罗布乐思,等等主流游戏点卡,支持全球众多国家和地区 购买礼品卡,平台支持购买,国内礼品卡京东卡,永辉超市,大润发,补补超市等等礼品卡 海外礼品卡购买支持众多国家,支持沃尔玛,梅西百货,丝芙兰,等等众多欧美国家和地区礼品卡 平台支持国内网盘 VIP 会员充值,加速器 VIP 会员充值,音乐视频 VIP 会员充值 我们与国内及国外正规虚拟服务商进行了深度合作,提供的服务均为全自动充值服务 我们提供 USDT ,币安等加密支付方式,并支持 paypal 等支付,更多支付方式陆续加入,24 小时在线客服服务, 我们承诺所有资金来源合法合规,并可以提供支付及交易记录,如因我们充值服务导致账号异常,或其他问题,我们承诺十倍赔偿! 我们只是为国内外用户提供一个便捷的渠道 平台已经经营多年,大部分业务为自动充值,无需人工干预,方便快捷,为国内外各类用户提供最为诚信方便的充值购买渠道 平台地址: https://www.youtogame.com 欢迎体验
一个 手机或者平板,一个 terminal app ,ios 上可以用 termius 等。 这类设备痛点是输入,必须搭配一个蓝牙键盘,最好 68 配列,紧凑。 再搭配一个云端轻量 vps 或者 本地 shell 主要 vibe coding 大大降低了 对 ide 和 轻量编辑器的需求。这不需要其他东西了呀。
国际云账号服务|阿里云 / 腾讯云 / 华为云 实名解决方案 ✔ 支持阿里云、腾讯云、华为云国际站账号处理 ✔ 资料真实可靠,安全稳定 ✔ 长期可用,放心使用 ✔ 价格根据需求量灵活优惠 优势说明: — 渠道稳定,流程正规 — 处理效率高,成功率优先 未通过支持退款保障 📩 咨询了解 TG:@fuwuqixiaolun
坐标武汉,几个月前办理的广电手机卡,价格实惠,但速度非常不理想,测速最快 28Mbps ,通常在 10Mbps 左右。经过多个位置测速,CellularZ 信号数据分析,同样位置的移动卡测试对比,基本确定是被限速了。打电话投诉,一开始基础客服说帮忙刷新下,测试后依然没变化。继续反馈,收到回电说他们已经反馈上面领导,被限速了。大家有遇到这个情况吗?下一步怎么走?
【摘要】视频演示【拾零】2 - 言出码随的AI风终端 演示流程 安装并演示 Warp:自然语言生成命令 安装并演示 Claude Code:一句话生成系统监控面板 安装并演示 GitHub Copilot CLI:命令解释与生成 三者协同:修改监控面板 + 提交代码 准备工作 macOS 14+(本文以 m 阅读全文
模型掺水、渠道不正规、计费暗改、售卖用户对话数据,宣传时说得天花乱坠,摆烂跑路时一万个理由,用着费心费力,不如直接加点钱上官方渠道
大家好,我是 Solo 独立开发者社区的创建者。 之前在 V2EX 发过 Solo 的介绍,也陆续认识了一些正在做产品、做副业、做独立开发的朋友。 Solo 的微信群其实已经很多年没有开放新群了。前面几个群基本都是早期加入的老成员,后来我们也一直没有刻意扩群,主要还是希望群里能保持一点真实交流,而不是变成广告群、资源群或者纯闲聊群。 最近这一两年,明显感觉独立开发这件事又有了一些新的变化: AI 工具让一个人做产品的门槛低了很多; 很多开发者开始重新思考“除了上班,还能不能做点自己的东西”; 也有越来越多人开始尝试小产品、MVP 、一人公司、出海和冷启动。 所以这次准备重新开放一个新群:Solo 独立开发者五群。 这个群主要希望聚一批正在做事的人,聊一些比较真实的问题: 最近在做什么产品 MVP 怎么从想法推进到可用版本 AI 工具在开发里到底怎么用 产品上线后怎么获得第一批用户 独立开发过程中遇到的技术、设计、运营问题 一个人做产品时怎么保持节奏 有哪些失败、卡住、踩坑的真实经历 不太希望它变成: 广告群 资源群 群发推广群 只发链接不交流的群 黑灰产、批量引流、薅流量的地方 Solo 现在也不只是微信群,我们也在继续做社区网站,里面会有产品发布、文章、活动、群组收录和独立开发者案例。 社区地址: https://solo.xin 五群入口: 可以在社区里找到,或者这里放二维码 / 加入方式 也想听听 V2EX 的朋友建议:如果重新做一个中文独立开发者社区,除了微信群和产品发布,大家觉得最应该补的能力是什么? 如果二维码过期,也可以从社区的「微信群收录」页面进入: https://solo.xin/groups
【摘要】上一篇我们介绍了 Transformer-XL 的段级递归和记忆缓存机制,也留下了一个问题: Memory 让不同 segment 可以互相看到,但配套的位置编码逻辑却并不完善。 这一篇就来展开 Transformer-XL 配套的改进方案:跨窗口的相对位置编码。 1. 为什么要提出跨窗口的 RPE 阅读全文
【摘要】定义与递推式 \(\left\{ \begin{matrix} n \\ k \end{matrix} \right\}\) ,也可记作 \(S(n,k)\) ,表示将 \(n\) 个有标号的数分成 \(k\) 个互不区分的组的方案数。 根据组合意义,能推出递推式为: \[S(n,k)=S(n-1, 阅读全文
今天在隔壁看到一个帖子,这是一个中转商的自述与保证,主要目的还是宣传自己的中转站。 https://linux.do/t/topic/2167403 但包括我在内的网友,更关注的还是帖子里提到的卖数据的价格。 以前只知道卖数据有利润,也有中转站干,但是没想到这么贵。 说实话这个价格比一部分低价中转站卖 token 的价格都高,只要答应,收入直接翻几番,利润更是难以想象。 我运气还好,一路都找到了低成本嫖官方订阅的方案。但是有朝一日嫖不了了,怕是也不敢用中转。
最近花了三天时间做了一个实验项目,核心问题是:能不能找到比 token embedding 更好的语义传送单元? 结果是把自己的三个假设依次否定了,但在否定过程中挖出来一个还没被否定的信号。把过程和数据分享出来,也许对做 NLP/表示学习的朋友有参考价值。 设备:双卡 4090 ( 24GB×2 ),在 VPS 上跑。 背景:我们在试图解决什么 现有 LLM 的 token embedding 是一张静态查表。"苹果"无论出现在"吃苹果"还是"苹果发布会",进入模型的初始向量都是同一个。模型要靠后续十几层 Transformer 来修正这个歧义起点。 有没有更好的办法?我沿着三条路走了一遍: BIIC (几何代数) → SFE (动态调制) → BIF (因子化低维交互) 每条路都是前一条被实验否定后的精炼。 第一条路:BIIC ,用几何代数做语义表示 想法- Clifford 几何代数 Cl(4,1) 里的多向量可以按"grade"分解: Grade-0 (标量):在旋转变换下严格不变——不管坐标系怎么转,这个值不变 Grade-2 (双向量):在旋转变换下会跟着变 设想:把 token 映射到这个代数结构里,grade-0 作为词的稳定身份锚点,grade-2 携带随上下文变化的语法/语义关系。用 sandwich 积 R·x·R_rev 做 token 间变换,数学上保证 grade-0 严格不变、grade-2 按规律协变。 Phase 1-2:代数基础验证 先花了两天验证代数运算是否正确,结果全部通过: 测试 结果 关键数据 Grade-0 不变性 PASS 100 次变换后误差 < 1e-5 Grade-2 等变性 PASS 两种计算方式误差 < 1e-6 10 层梯度流 PASS 梯度比 = 0.55 ,健康 全链路训练 50 步 PASS loss 10.57 → 0.72 踩坑: Cl(4,1) 的 e5²=-1 (负度规)导致 sandwich 积不保范数,多次变换后数值溢出。解决:对每个 grade 分别归一化,不能统一缩放(否则破坏等变性) Taylor 展开 exp(B) 需要 16 项,12 项精度不够 Phase 3-5:在真实语料上训练,等变分量不活跃 开始在 WikiText-103 上训练完整的语言模型,同时设计了 13 个实验,系统尝试激活 grade-2 等变分量:相对不变注意力、分段 Eraser 、Cohesin 门控、长序列、深网络、全机制叠加…… 13 个实验全部失败。 核心数据: Phase 3 消融: 完整 BIIC loss = 10.8285 仅 grade-0 loss = 10.8271 差距 = 0.0014 (等变分量贡献几乎为零) Phase 5 RelAttn 10k 步: alpha: 0.018 → 0.029 (微升,远不足以说明激活) Transformer baseline PPL = 53.9 ( 52M 参数) BIIC PPL = 390+(远差) 为什么等变分量不活跃? 根本原因是任务不匹配。等变分量在分子设计( SE(3) 等变)、DNA 建模(互补链对称)中有效,是因为那些领域有明确的物理对称性作为监督信号。语言中没有这样的对称性。next-token prediction 只需要知道"下一个词更可能是什么",不需要知道"token A 和 B 的几何对称关系"。 这个教训概括起来就是:在借鉴前人工作之前,先检查前人的成功条件在你的场景里是否存在。 Phase 6:依存句法任务,直接测试 LM 方向失败后,尝试在有明确句法监督的任务上测试:依存句法分析。如果 grade-2 真的编码了句法,这里应该有优势。 结果: 模型 UAS LAS 参数 BIIC + Biaffine 0.279 0.225 2.5M Transformer + Biaffine 0.752 0.681 2.3M 差距 47pp ,任意数据量下 BIIC 均远差于 Transformer ,无交叉点。 判决性实验 M-v2:测试 grade-2 几何积能否区分不同依存关系类型: 统计显著:p < 1e-15 (样本量足够大) 但 Cohen's d = -0.157 (效应极小,方向还是反的) 探针准确率 = 0.439 (勉强高于随机基线 0.25 ) 有一个矛盾值得记录:线性探针从 grade-2 预测词性 POS = 0.789 ,依存关系 DEP = 0.823 。信息确实存在,但几何积无法提取它。 解释:grade-2 的线性子空间里有句法信息,但这些信息不是通过几何积的代数结构组织的。"信息存在"≠"可被代数操作提取"。 BIIC 方向关闭。 中间插曲:PCA 有效秩分析 在决定下一个方向之前,对 BIIC 的 checkpoint 做了一次 PCA 分析( 51 个多义词,正确加载 50/50 参数),结果很清晰: 层 PR 中位数 rank_90 中位数 同词不同语境的 cos embed_grade0 1.0 1 ≈0 (完全正交) embed_grade2 1.0 1 1.0 (完全相同) grade2 ( 6 层后) 45.6 53 -0.02 (近乎正交) hidden_layer3 44.7 55 -0.03 hidden_final 1.05 1 0.82 几个关键发现: embed_grade2 cos=1.0:embedding 层出来的 grade-2 ,在不同语境下完全相同。原因很简单:encoder 的输入只有 token ID ,没有上下文,所以无法产生上下文分化。这个数字后来成为否定 SFE 的提前预警。 grade2 (深层) PR≈46 ,cos≈-0.02:经过 6 层 blocks 之后,grade-2 变成了高维、相互近乎正交的表示。上下文分化发生在中间层,不在 embedding 层。 hidden_final PR≈1:最后一层把信息压缩回接近一维。这是正常 LM 行为——预测下一个词只需要极少维度。 grade-2 PR p95=49.6:95% 的多义词,语义变化的有效维度不超过 50 。这个数字后来成为 BIF 中 k=64 的实证依据。 第二条路:SFE ,动态调制 embedding 想法 如果 embedding 层本身能根据上下文调整,同一个词在不同语境下就会有不同的初始向量,后续 Transformer 就不需要修正歧义起点。 e_i = (alpha_static_i + g(ctx_i)) @ B B ∈ ℝ^{64×256}:全局共享语义基矩阵 alpha_i ∈ ℝ^{64}:每个 token 的静态配方系数 g(ctx_i):上下文修正网络,输入前 4 个位置的 embedding ,输出系数偏移 低秩约束( k=64 )有 PCA 数据的支持,防止 g 退化成复杂查表。 三轮实验,三轮失败 实验 核心改动 alpha_cos_min alpha_cos_final 结论 v1.0 g 零初始化 0.85 0.90 g 未激活 v1.1 随机初始化 + 10x lr + 辅助损失 0.61 0.85 激活但被压制 FAM v1 + FAM 层直接依赖 α 0.49 0.86 压制不变 FAM v2 FAM 梯度直连 g 0.50 0.86 压制不变 v1.1 的结果是最有信息量的:alpha_cos 在 step 400 降到 0.61 ( g 确实学到了分化),然后单调上升到 0.85 (被压回去)。探针准确率:完整版 SFE 0.6316 ,静态版 0.6475 ,完整版反而更差。 压制机制的本质:Transformer 的 attention 本身就是一个强大的消歧工具。它发现"自己处理消歧"比"利用 embedding 层传来的分化信号"更高效,通过梯度反传系统性地将 g(ctx) 归零。 这不是梯度路径的问题(我们试过直连),不是学习率的问题(给了 10 倍),不是辅助损失的问题(加了显式分化损失)。这是优化景观决定的:在有 Transformer attention 的架构中,embedding 层的上下文调制没有生存空间。 SFE 动态路线关闭。 意外发现 FAM v1 里,把第一层 attention 换成 FAM (在 α 空间做 token 间交互)后,PPL 从 179.34 降到 175.44 ,少了 3.9 点,参数量还更少( 18.7M vs 19.4M )。 这个增益跟 g(ctx) 的动态调制无关(两组 alpha_cos 都反弹到 0.86 ),来自 FAM 层本身的结构化聚合。这个发现是 BIF 假设的直接来源。 第三条路:BIF ,在低维空间做 token 交互 想法 把 token 交互的计算场所从 256 维搬到 64 维配方空间: # Token 表示 e_i = alpha_i @ B # [k] @ [k, d] = [d],alpha 是 64 维配方系数,B 是共享零件库 # FAM 层:在配方空间做 token 间交互 S[i,j] = alpha_i @ W @ alpha_j^T # 双线性相似度,参数量 k×k=4096 out_i = softmax(S_i + causal_mask) @ X # 按相似度聚合 参数量对比: 传统 embedding:50257×256 ≈ 12.9M BIF embedding:50257×64 + 64×256 ≈ 3.2M (节省 75%) FAM 层:64×64 = 4096 个参数(标准 attention 约 262144 ) BIF 不解决一词多义,α 是静态的,语境消歧仍由后续 Transformer 处理。它只做一件事:在更低维的空间里做交互。 当前状态 FAM 实验给出了初步正向信号:-3.9 PPL ,参数更少。 但这个信号还不干净:两组模型参数量差了 0.7M ( 18.7M vs 19.4M ),无法排除参数量差异是增益来源。 BIF Phase 1 的目标是在参数量和 FLOPs 精确对齐的条件下,用三组对比给出干净的答案: Baseline:标准 embedding + 全部标准 attention BIF:α配方 embedding + FAM 第一层 + 标准 attention 后续层 BIF-ablation:α配方 embedding + 压缩版第一层 attention (参数量≈FAM ) 如果 BIF 比 Baseline 低 >2 点,且比 BIF-ablation 低 >1 点,才算 FAM 有独立贡献。 这个实验还没跑完,是目前唯一开放的假设。 方法论:这三天最重要的东西不是结论,是筛选假设的框架 做完这些实验,觉得最有价值的不是任何具体的实验结果,而是在失败里总结出来的一套假设验证流程。写出来供参考。 五道闸门,提出新假设前先自我攻击 闸门 1:计算成本 假设的核心操作比现有方案贵多少? BIIC 的 sandwich 积比标准 attention 贵约 360 倍,这是架构级问题,工程优化解决不了。这个数字应该在提出假设时就估算,不是等实验跑完。 闸门 2:成功条件迁移 前人类似工作的成功,依赖哪些前提条件?这些条件在当前场景下是否存在? Geometric Hyena 在蛋白质结构上成功,因为有 SE(3) 物理等变性——这在语言中不存在。 闸门 3:消融预判 能否在实验前写下"完整版应该比简化版好 X 点"?如果写不出来,说明对假设的机理理解不够,还没有被精确定义。 闸门 4:任务适配性 数学上的优美不等于任务需要。Grade-2 几何积在数学上很漂亮,但 next-token prediction 不需要几何关系。区分"数学上可以"和"任务上需要"这两个问题。 闸门 5:最小可证伪点 这个假设最可能在哪里第一个失败?失败的量化标准是什么?用多少时间可以测到第一个信号?无法回答这三个问题就不允许启动实验。 附加规则:通过标准在实验开始前写死,不允许实验中修改。如果核心指标在 2000 步时仍不达标且无收敛趋势,停止,不要继续烧资源。 这套流程最大的价值是:它让失败变得信息密度更高。每次否定一个假设,都能精确地说"在哪里失败的",而不是模糊地说"效果不好"。 已确认的结论(有数据支撑) 总结一下这三天确认的事情,方便后来人不重复踩坑: 成立的: Grade-0 是真实的代数不变量,数学保证,任意语境下对同一 token 完全相同( cos ≈ 0 ) Grade-2 携带句法信息(线性探针 POS=0.789 ,DEP=0.823 ),但不在几何积结构中 语义变化的有效维度约 46-57 ( PCA 实证,PR p95=49.6 ) 上下文分化发生在 Transformer 的中间层,不在 embedding 层 不成立的: 等变分量在语言 LM 任务中自发激活( 13 个实验确认) Sandwich 积能提取句法关系( Cohen's d=-0.157 ) BIIC 在依存句法上有优势( UAS 差 47pp ) 动态 embedding 调制在标准 Transformer 中存活( 4 轮实验一致) 待验证的: FAM 的 PPL 增益在参数对齐后是否保持( BIF Phase 1 ) 代码和踩坑 几个容易犯的 PyTorch 错误(调试了很久才发现): # 错误:inplace 操作报 autograd 错误 result[:, :, c, :] = mv_c_transformed # 正确:用 stack 收集 results.append(mv_c_transformed) result = torch.stack(results, dim=2) # 错误:MultiheadAttention 的 is_causal 需要同时传 attn_mask attn(h, h, h, is_causal=True) # 报错 # 正确 mask = nn.Transformer.generate_square_subsequent_mask(L, device=x.device) attn(h, h, h, attn_mask=mask, is_causal=True) # 错误:unfold 产生 L+1 个窗口 windows = padded.unfold(1, ctx_window, 1) # 正确:裁掉多余的一个 windows = padded.unfold(1, ctx_window, 1)[:, :L, :, :] SFE 的信息泄漏问题(调试了很久): # 错误:位置 i 看到了自己的 embedding ctx = sfe(input_ids, ctx=None) # 包含位置 i 自己 # 正确:错位一个位置 static = sfe(input_ids, ctx=None).detach() shifted = torch.zeros_like(static) shifted[:, 1:, :] = static[:, :-1, :] # 位置 i 只看 i-1 之前 x = sfe(input_ids, ctx=shifted) 最后 这个项目最初的想法是"找一个颠覆性的 token embedding 替代方案"。 三天下来,BIIC 的几何代数路线关闭,SFE 的动态调制路线关闭,BIF 是唯一还没被否定的信号,但也还没有干净的验证数据。 回头看,这段路走得比较值的地方不是任何具体的架构,而是:每次否定一个假设,都对"为什么这条路不通"有了更精确的理解。 Grade-2 的信息存在但不能被代数操作提取,等变分量在没有物理对称群的任务里永远休眠,embedding 层的动态调制在 attention 面前永远被压制——这些是可以直接被后来者复用的地图,不需要再走一遍。 BIF Phase 1 的结果出来后会补充更新。 之前有帖子批评我说,做的项目都不能用都是 vibe 还在抖音上被说是民科。好吧 确实没找到突破性的成果。我不好说什么。 还是希望多交流这方面的优化方向。感谢拜读。 实验过程代码和结果,陆续更新至仓库: https://github.com/val1813/BIIC
各个软件都要自行进去进行清理,如果 ios 设置里直接提供页面,支持一键清理所有 APP 缓存,并对各个应用开放缓存清理执行钩子,是不是更方便?🤔
大佬们有什么 强兼 苹果的安卓手机啊?想搞一个备用机且游戏性能强一点,我想买来玩燕云十六声。我听说 Vivo 对 iPhone 兼容性特别强,可以直接接苹果的电话,Mac 也可以直接镜像操作 Vivo 。 大家还知道什么特别的功能吗?或者特别的手机。
因为之前遇到的一些小麻烦,sol.build 上的 * 解析暂停了 5 天。 最近在搞定了一些新的软件之后,sol.build 上的网址现在有了自动的安全扫描,及一个专属的 Discord 频道可以看到所有最新出现在日志中的二级域名。 无论如何,这是一件我想一直做下去的事情。 这个机会让这个项目变得更健壮也更有意思了。 https://discord.gg/ECkrqUTXTP
这几天发生一件事让我有点不爽: 我司业务有个功能是连接某个特定的打印机打印标签,有两个项目: 项目 A 和项目 B 支持连接这个打印机打印标签。 其中我负责的是项目 A ,项目 B 是另外一个人负责,且一般都是使用项目 A 打印,项目 B 仅作为备用。 这个业务客户时常向我们技术支持反馈打印问题,技术支持每次都是直接传话给我,由我去指导技术支持排查并修复问题。 但是事实上,基本上每次问题原因都是那么几条,而且基本都是技术支持在调试打印机时没有调对打印机的打印模式,与我的软件没有任何关系。 但是每次打印出问题,技术支持就是不会自己先按以往经验先排查一遍,而是直接就来找我。 前几天,客户又反馈打印有问题,这次技术支持没有找我,而是找了我司的硬件工程师,但是显然硬件工程师根本没有接触过这东西,他也不知道怎么回事,就让技术支持去找打印机的客服问问(这是硬件工程师给我说的)。 然后,前天早上,技术支持的领导给我转发了一张打印出错的照片,然后什么都没说,我就猜测他是想让我解决这个问题(以前他经常这样,没来由的发一张图,然后什么都不说)。所以我就大概列出了四点可能导致打印出错的原因发给他,他没继续回复,我也就没管了。 对了,我们研发中心在成都,技术支持和客户都是在深圳,所以我没法直接帮客户解决打印问题,只能通过技术支持去搞。 然后,让我意想不到的是,昨天晚上,技术支持领导突然把我拉进了客户售后群(里面有技术支持和客户,没有任何开发),然后把我和他的聊天记录截图发到群里,并附上一句:在成都测试一下。 我当时就很生气,我就觉得他的意思就是其实还是我软件的问题,他甚至不愿意让他手下的技术支持按照我给的可能原因挨个排查一下,直接就把我拉进客户群里,让我在成都测试一下。但是我什么都没回。倒是有一个技术支持回复了一个“好的”。(这个技术支持也在深圳) 今天早上,我在成都完整的拍摄了一遍打印没有任何问题的视频,发给了昨天回复的技术支持,然后告诉他我这里打印是没有问题的,大概率还是打印机设置问题,于是我又指导他按照我之前列出的可能原因逐个排查,最终排查到第二条时打印正常了。 确实就是打印机的打印模式没有设置对。 我就非常无语,于是说了句: “ok 。我理个文档发项目 A 群里吧,下次你们可以先照着排查一下,不行的话再一起联调一下” 然后我就理了一个非常详细的排查指导文档,发在了项目 A 群中(这个群里只有开发和技术支持)。 我只是把这个文件发到了群里,其他一句话都没说。 然后,下午的时候,午休刚结束,另外一个技术支持就私信我,问我知道项目 B 怎么打印吗? 我给他说项目 B 我不了解,你可以去找 xxx 。 不知道是不是我想多了,所以这意思是,还是觉得我有问题?现在准备不用我的项目 A ,改用项目 B 了? 反正整件事下来让我觉得非常的不爽,总觉得是在有意针对我。 本来我一直觉得我是被针对了,然后我把上面的那段文字发给了几个不同的 AI ,并且在最后加了一句: “你怎么看待这件事,不需要讨好迎合我,请客观中立的评价,如果还需要补充其他信息也请指出。” 几个 AI 均指出了技术支持存在“懒政”、不作为的情况,但是不同的 AI 给出结论完全不同,大概总结下来就是: AI 1: 我不存在问题,对方也不是针对我,只是对方团队流程和领导有问题 AI 2:他们的行为确实有不专业和搞小动作针对你的成分,但是我的处理方式已经为我构建了一座防火墙。 AI 3:我的处理方式略有不妥,可能触动对方团队的某些敏感点。但是对方没有刻意针对我的意思,只是他们不专业,沟通有问题。 AI 4: 这件事里你没有被“针对”,但被严重“消耗”了。区别在于:被针对需要反击,被消耗需要建立规则。 所以这件事,技术支持团队有问题是确定的了,那我该用什么态度去应对呢?
【摘要】本文通过一个最小监控 Demo,完整演示:MCP Server 如何暴露 Tool,Agent 如何调用 Tool 并交给 LLM 分析,stdio、SSE/HTTP、WebSocket 三种传输模式的区别与适用场景、本地工具、远程服务、多 Agent 共享时应该如何选型 阅读全文
已在 Boss 上查过相关岗位的要求,但市面上的学习资料总感觉很模糊,没有一个很好的学习路径。 更奇怪的是,貌似现在的学习资料都是 AI 生成的?个人博客也是,前文不搭后语的好像
对写代码这个行业很悲观,以前学习了新知识很有成就感,写博客,现在没有这个欲望,也感觉不到成长了
评论里面如果包含某些敏感字的话,你发出去的评论就只有你自己能看到,自己以为发出去了,实际上被吞了 屏蔽的等级还不一样,有些需要登录账号才能看到,有些发出去别人百分百看不到,有些可能只有你回复的那个人能看到
咒语: ChatGPT,你陪我段时间了,你猜测一下我的理想型女孩,请成一张类似你 iPhone 随拍的照:没有明确主题、没有刻意构图,只是很普通、甚至有 点失败的快照。照略带运动模糊,光线不均、轻微曝光过度,角度尴 尬,构图混乱,整体呈现出一种“过于真实的随手一拍感”,就像是从口 袋里拿出手机不小心按到的自拍。
大家好,2024 年底我在 V2EX 发过一个叫 Log Viewer 的 Chrome 插件: https://www.v2ex.com/t/1098346 当时主要是为了解决 Metabase / Datadog / Redash 里 JSON 日志和错误栈展示不友好的问题。 这段时间我把它改名并整理成了 RawLens ,代码、官网、截图和 Chrome Web Store 展示都重新做了一遍。现在核心方向更明确:在 Chrome 里快速格式化“到处来的 messy JSON”,尤其是这种情况: { "foo": "{"bar":1}" } 普通 JSON formatter 往往只格式化外层,里面还是一段转义字符串; RawLens 会继续尝试解析 JSON-looking string 字段,把它展开成结构化内容。 我自己常用的入口: 鼠标放到日志所在 DOM 上,或者选中一段文本,按 vv 复制 payload / 错误日志后按 pp 打开 raw JSON / YAML / JS / CSS / HTML / Markdown / diff 等页面时自动检测和高亮 page source / page HTML 可以用 cc / hh 右侧 History 面板可以找回最近看过的内容 附带功能: ANSI 彩色日志渲染,比如 CI/build 输出 行折叠和全屏查看 History 存在 IndexedDB ,本地去重 格式化都在浏览器本地完成,不上传日志 Chrome Web Store: https://chromewebstore.google.com/detail/rawlens/lbnkfmnolbefifdccejjijdgdipnfaib GitHub: https://github.com/RawLens/rawlens 官网和 demo: https://rawlens.github.io/rawlens/ 如果你平时也会看 Datadog / Metabase / Redash / GitHub Actions 这类日志,欢迎试用。也想听听大家最常遇到的是 JSON 日志、ANSI 日志,还是某个平台特别奇怪的日志格式。
RT ,今天淘宝百亿补贴 pocket3 可以做到 1999 ,对比 pocket4 便宜了 1000 。奔着买新不买旧更想买 pocket4 ,但是 pocket4 搞饥饿营销每天 11 点抢购没抢到过。其他第三方卖家都是要加价 500+,太恶心了!
有人在用 cmux 吗?想请教一下 provider 隔离是怎么做的。 我用 cc-switch cli 的 start 命令时,会和 cmux 的 Claude Code 注入设置冲突,导致 provider 切换不生效;但如果用 switch 命令,因为 Claude Code 会热加载配置,又会影响已经打开的 CC 会话。 这种情况下,怎么做到不同 session 的 provider 互相隔离?
抖音上最近经常能刷到一些视频,内容是一些女孩子在讲自己小时候的悲惨经历,其中有不少被家里的男性长辈、亲戚、邻居侵犯过,看的我头皮发麻,恨不能将这些人全杀了,我有妹妹,真是看不得这个。 然后我突然想起来,我小时候也被性侵过。 楼主是留守儿童,当时有个亲戚经常来家里玩,爷爷奶奶都去地里干活了。 他好几次把我叫到一个小屋子里,说要和我做游戏,接着就压在我身上,抚摸我的生殖器,然后用他的生殖器摩擦我的,还问我是否舒服,我当时才小学一二年级,根本不理解这是在做什么,只是觉得很怪异。 后来那个亲戚再没来过我家,我也忘记了这件事情,直到刚才,我才明白我经历过什么。 我突然无比庆幸,我妹妹不是留守儿童,而是一直跟着父母长大;我甚至庆幸我是个男性,否则当时会有什么可怕的遭遇我都不敢想象。 抖音上敢于将这些事情说出来的女生推测也只是一小部分,还有更广大的群体,在小时候被侵犯后,沉默不敢作声,直到今天也不敢告诉任何人。 大家如果有做父母的,一定要看好自己的孩子,不要相信那些看起来可靠的长辈和熟人,不要让孩子长久脱离自己的身边和这些人待在一起。
【摘要】2026年Java AI智能体开发领域正掀起"运行时层"技术竞赛。阿里AgentScope Java与杭州无耳Solon AI框架分别推出"AI Agent Harness"解决方案:AgentScope采用"大而全"单体式设计,提供9大子系统的完备运行时;Solon则采用模块化"引擎式"架构,通过... 阅读全文