Weekly AI Observations: AI Creation Is the New Liberal Arts

Saw a concern on social media today. Where is the demand for AI? It’s both right and wrong. Demand hasn’t magically appeared out of thin air, but suppressed demand is being unleashed. I’ve had a realization lately: AI creation—coding, image generation, video generation—is like the new liberal arts of our era. Technique Is No Longer the Barrier Donald Knuth’s famous The Art of Computer Programming says it in the title: programming is an art....

January 24, 2026 · 4 min · Yuanhao

每周AI观察:AI创作是新时代的琴棋书画

今天在朋友圈看到一个担忧。 AI的需求在哪里 这话对也不对。需求确实没有凭空冒出来多少,但被压抑的需求正在被释放。我最近有一个感悟:AI创作,包括coding、生图、生视频,就像是新时代的琴棋书画。 技法不再是门槛 高德纳那本著名的《计算机程序设计艺术》,书名本身就说明了一件事:写程序是一门艺术。好的程序不仅有用,而且赏心悦目。且不说内部实现这种有欣赏门槛的东西,一个漂亮的UI应该人见人爱。 但琴棋书画这类艺术有个特点:想要精通必须大量练习。写程序也一样。很多人想象力很优秀,脑子里有画面,但无奈技法水平有限,无法表达出自己的想象。 我是个后端工程师,之前不太会开发网页应用。但我自认为审美还行,能够欣赏做得漂亮的网页和设计。现在有了AI编程,我可以直接指挥它来做出一个很漂亮的前端页面。多模态能力让这件事更简单了,我可以直接截图告诉AI哪里需要修改,真的就跟和前端工程师打交道一样。 只要你想得到、想得清、对细节有心有力去抠,AI可以帮你做得不错。技法的限制一下子就被打破了,普通人也有机会创作出符合自己想象的作品。 独特的情绪价值 我是一个水平非常菜的吉他爱好者,但不妨碍我喜欢这个乐器,有空的时候拿起来拨弄两下就会挺开心的。AI编程也有类似的愉悦感,使用和欣赏自己与AI共创的作品,并不需要有很多观众给你鼓掌。 但仔细想想,这两种快乐其实不太一样。 弹吉他是"我在变强"的感觉,有一种延迟满足,先苦后甜。而指挥AI很少感觉苦,更多时候会想"AI怎么这么笨啊"。弹吉他的成就感来自"我能了",指挥AI的成就感来自"它竟然能行",“真做出来了”。 而且相比于琴棋书画,指挥AI干活还有独特的掌控感。只要有钱买token,AI永远不会拒绝你的需求,而且做起来非常快。当然,目前AI比较少能像优秀的前端工程师或设计师一样互相激发,把产品做得更好。惊喜有的,但靠运气。 含金量的两种视角 有人可能会说,用AI做出来的东西,跟自己亲手写代码、亲手弹出一首曲子比起来,“含金量"不一样。 这个问题要分视角看。以自我为中心,当然不一样,自己练出来的技能和指挥AI做出来的成果,心理体验完全不同。但放在客观世界,虽然现在有时人们讨厌AI,但不得不承认,在更多时候人工并不会比AI生产带来额外的含金量。 一个漂亮的网页,用户不会因为它是人写的就多给好评;一首好听的曲子,听众不会因为它是AI生成的就不想听。 需求一直都在 回到开头那个担忧,琴棋书画是不是有意义的需求,我觉得是,虽然大部分人的琴棋书画都是自娱自乐。而那些个性化的小众的真实需求就更是了。 下面是另一个朋友圈观察,和我的感觉也很类似。 有大批玩AI废寝忘食的人,真的就是“玩” 我觉得这些需求一直都在,只是原来的生产力水平无法满足。就像想弹出好听曲子的人一直都有,但大多数人没有时间练到那个水平。想做个漂亮网站的人一直都有,但大多数人不会写代码。 AI释放了很多被技法门槛压抑的需求。这些需求大部分是个性化或小众的,原本不值得专业人士花时间去满足。现在每个人都可以自己动手,用AI来实现自己的小想法。 这可能不是传统意义上的"需求扩张”,但它让更多人有机会成为创作者,而不只是消费者。

January 24, 2026 · 1 min · Yuanhao

Weekly AI Observations: User Growth for AI Products

NBot took first place on Product Hunt’s daily board. It’s a product we spent two months building and launched over the Christmas holidays. The timing was partly because of delays and partly because competition is lighter during the break. We’re happy with the result, but the whole process gave me a much clearer view of growth for AI products. Product Hunt Isn’t as Easy as It Looks Posting on PH is easy; placing well is not....

December 27, 2025 · 5 min · Yuanhao

每周AI观察:AI产品的用户增长

NBot在Product Hunt上拿了日榜第一。 这是我们花了两个月做的产品,在圣诞假期期间发布。选这个时间点一方面是各种原因一直延后,另一方面假期竞争确实小一些。拿到这个成绩挺满意的,但整个过程让我对AI产品的增长有了更具体的认识。 Product Hunt没有想象中简单 在PH上发布的门槛不高,但想拿好名次并不容易。前面的产品都是花了人力物力运营的,票是要拉的。 在LinkedIn、Facebook上搜Product Hunt能找到很多群组,有的规模还不小。你在群里发要launch,会有很多做营销的人来加好友问要不要帮打广告。但PH的防作弊机制挺厉害,新账号投票不作数,需要养一段时间才有权重。这在很大程度上减少了刷票,但不是不能刷,找对圈子很重要。 我们这次总共获得了400多票,但reach到的人肯定上千。很多票投完刷新就消失了,说明是无效票。感觉全世界都为你投了票,但网页上的数字纹丝不动,这种体验挺魔幻的。 如果让我再来一次,最有价值的动作是跟最近launch的maker建立联系。他们的账号都是有权重的高质量账号,可以稳定贡献投票。当然如果你本身是连续创业者或者行业大牛这种明星maker,这件事会容易很多。我们由于人手不足,这块做得不够,而且回复率确实不高,很费时间。 当天的战况,和第二名打得不可开交 PH的真正价值是背书 根据目前看到的数据,PH的转化还不错,大家来了多少会试一下产品。但活跃在上面的很多是各种开发者、CEO,不一定是产品的目标用户。 所以PH拿好名次更像拿一个背书。有了好名次之后,产品会被很多网站、newsletter自动收录推荐,在微信里搜product hunt就能看到很多类似的文章。这对站点SEO帮助很大,多了很多外链。 说到外链,现在有很多AI工具导航网站,比较有名的有TAAFT(There’s An AI For That)、Toolify等。产品要在这些网站被收录是要交钱的,价格从几十美元到上百美元都有,收录后会有外链,也会有流量过来。我们花了几十美元试了一个,有效果但没有特别好。第一次看到这种模式的时候确实大受震撼,没想到这也能赚钱。 日常运营才是重点 上面这些都是比较一次性的动作,日常运营才是增长的重点。 没钱的indie hacker可以build自己的Twitter账号或者在Reddit发帖。这两个地方现在AI味最浓,比较容易找到AI产品的受众。很火的概念叫build in public,既打造个人IP又增长产品,但执行起来难度不小,每天要花不少时间回复、构思、发帖。 当然也可以在别的平台做,特别是内容能力强的话。比较典型的像Zara Zhang,先是在小红书分享AI产品学习笔记,最近也发布了自己的side project。有了流量之后做产品会比没流量简单很多。 有钱的公司除了这些还可以花钱请达人发帖,就是所谓的达人营销。让达人发产品使用经验,他们能做起来账号都比较懂用户爱看什么,而且相比团队自己发,更多样的达人贴可以更容易吸引到不同用户。 AI产品有一个特点是上手门槛确实低,也比较容易做出有趣的案例,特别适合达人营销。 上百万美金的达人营销 最近面试了一个在头部AI agent公司实习过的小姐姐,他们的产品说出来大家一定知道。这么大的声量实际上就是一个GTM lead带着两个实习生找了无数的达人发出来的。小姐姐才上本科,实习两个多月手里已经花出去上百万美金。 她说这个行业预算真的很高,也有很多滥竽充数来坑钱的达人。整个行业都在探索期,有人愿意支持你这样试是运气也是实力。能handle这么大的盘子不仅有能力,还有胆识。 我感觉她对这段经历的含金量还认识不足。没有多少人一辈子能在一件事上花出去这么多钱,这事不是只有她能做,但恰好她在这个位置上,踩过里面的坑,知道里面的门道,她就获得了相比同龄人巨大的优势。 内容即产品 有流量再做产品和先做产品再找流量,哪条路更好?我越来越觉得前者可能是更聪明的选择。 内容即产品,而且验证周期短。你发一篇文章,当天就能看到反馈;你做一个功能,可能要等好几周才知道用户买不买账。写内容的过程也是梳理思路的过程,写得清楚一定是想得清楚,想得清楚很重要。 我很建议大家都试试写内容,并看反馈。这个系列我已经写了快三个月,虽然很少有读者跟我互动(希望能有多点互动),但至少能看阅读量数据。上篇关于vibe coding面试的文章是我写作生涯阅读量最高的一篇,要感谢阮一峰老师把它收录到了科技爱好者周刊里。 AI时代的增长本质没变 AI时代的GTM或者增长和互联网时代应该大同小异,只不过vibe coding让更多的个人或小团队有机会打造产品,所以现在体感上会看到更多适用于独立开发者的增长方法。 想把市场经费花出去的话当然还有更传统的买广告,各种流量产品的广告位等着你出价去买,更别提现实生活中的各种广告牌。最近的蚂蚁阿福广告真是铺天盖地,相比之下在湾区的时候看到的AI公司广告会丰富不少,各种2B和2C的AI产品感觉已经快把旧金山的广告牌都包圆了。 旧金山随便一个街角就能看到两个AI不同的广告牌 回到我们自己,NBot属于比indie hacker钱稍微多一点的状态,非常考虑增长的效率。PH日榜第一是个好的开始,但这只是一次性的动作。接下来的日常运营,如何用有限的资源找到真正的用户,才是真正的挑战。 这也呼应了10.26那期的观察:效率不等于方向。AI让build变得容易,但找到用户依然很难。PH名次给了我们一个(和产品质量关系都不大的)背书,但路还很长。

December 27, 2025 · 1 min · Yuanhao

Two Weeks Off AI Notes: Starting Something New Is Hard

Life has been busy and I barely had energy to watch AI updates. I wrote half of last week’s (12.05) notes and never finished, so here comes a catch-up after two weeks away. Last week saw a bunch of new models or reports: DeepSeek, Mistral, QwenVL. I skimmed DeepSeek-3.2’s report and nothing really grabbed me; Mistral feels forced, with the only bragging point being a programming win among open-source models, which still needs community validation....

December 10, 2025 · 4 min · Yuanhao

两周AI没观察:做新业务好难

最近真的挺忙,都没有什么精力去观察AI了。上周(12.05)写了半截,后面没有写完,今天稍微有空再写一些。所以本期的标题是两周AI没观察。上周有不少新模型(或技术报告)发布,DeepSeek、Mistral、QwenVL都有。我扫了一眼DeepSeek-3.2的报告,没有太多我感兴趣的内容;Mistral更是感觉硬着头皮在发布,唯一可吹的是好像在开源模型里拿了个编程第一,有待社区后面验证。这些我都只是走马观花。这周GPT-5.2的传言满天飞,但到目前还没有发布,大模型竞争真的进入了白热化阶段,各家都不想输,发模型可能会稍微变得更谨慎。这些先按下不表,今天聊一聊最近感悟到的(AI)toC产品有多难。 因为要估算项目明年的各项指标,所以最近计算器快按冒烟了。我是第一次干这个事情,所以还挺有新鲜感。周末的时候干脆vibe coding了一个startup simulator,各种指标对结果的影响就一目了然了。这个计算器部署在vecel上,国内可能不是那么容易访问到,但代码我开源了:startup-simulator,感兴趣的朋友可以自己把玩。 模拟器截图,简单但抓住主要矛盾 AI产品或者互联网产品的终极指标有几个:用户量、收入和成本,收入减掉成本就是利润。 在简化的模型里面用户量和三个东西有关:单用户获客成本、获客预算,留存。在投流模式下单位时间内获客预算除以获客成本就是新增用户,留存就是一个时间周期后有多少老用户还留下来。如果单位时间内的新增比这段时间流失的用户多,那用户量就能增长,否则用户会越来越少。以美国为例,比较正常的互联网app的获客成本一般在小几美元,这意味着如果靠打广告的方式,你要获得1千个安装用户你就要付出好几千美元。网站点击便宜一些,但网站的留存比app难做不少。很多零成本的获客方法,比如马斯克如果做个新产品在twitter上吼一嗓子,应该马上就有一大堆用户。所以流量真的是这个时代很大的资本。 成本分几块,刚才说的获客是大头,一些传统的服务成本比如机器、带宽是小头。而且在互联网时代,用户量越大会带来规模效应,导致服务单个用户的成本下降,获客一般相反,你花越多钱打广告,边际效应会递减,每个用户的成本会上升。但AI时代又不一样,每服务一个用户就要多用一份token,OpenAI 20美元订阅费连一个高频用户的token钱都赚不回来。 收入又有好几种来源,广告、订阅、电商都可以赚钱。绝大部分的产品就靠第一种,AI时代第二种在变多。广告的收入和投放强度和客户量正相关,一般也会算每个用户能带来的收入,这样可以直接和前面的获客成本、服务成本来算出每增加一个用户到底是能多赚钱还是多赔钱。订阅一般有两种模式,一种是不付钱就不给用,另一种是免费也能简单用,正经用就要付钱,就是所谓的freemium模式。第二种的话还得考虑转化率,也就是有多少免费用户会转变成付费用户。对于AI产品,订阅已经变成主流,而且大多数产品都还没有放广告。 以下我们来用几个例子,让大家对这些东西对结果影响有个直观的感受。我们都按月算,简单一些。 若获客成本1美元,每月花一万美元获客,用户的次月留存率是50%,第十二个月,虽然你曾经获得了12万的用户,但最终你的用户量只有不到两万。而且如果你还是以这个预算继续获客,用户基本不会增长了。 在上一种情况下如果把每个月的预算升级成两万,那结果是用户最终会变成约4万,且也不会增长了。也就是说,因为用户会流失,维持稳态就要花很多的钱,最终稳态规模和你的预算相关。 如果次月留存率提高到60%,其结果是你会得到约2.5万的年终用户,但也增长显著放缓了。 如果我们来做一个AI应用,定价20美元,免费用户到付费用户的转化率是5%,别觉得低,这是ChatGPT的水平,付费用户的平均推理成本是20美元(绝对是低估了),免费用户的获客成本就当是2美元,不管是免费试用的token钱还是广告钱,先算一笔糊涂账。因为这个功能真的好用,免费用户没什么理由卸载跑路,次月留存较高,达到70%,但付费用户仍然会有一些退订(回忆下,你退订过几个AI产品),订阅次月留存达到80%。如果每月投入1万美元,那么在一年以后,免费和付费用户分别约为15k和1.2k,按第十二月的收入情况算ARR是280k。这一整年,你将花掉~33w,收回来~21w,总亏损12w。 如果不幸你的产品没有ChatGPT那么强,转化率只有3%,其他都不变.那结果是付费用户只有六百多,年底ARR 170k,总亏损还是12w。所以AI产品有个特点就是成本和收入的大头都是跟着用户规模涨跌,所以免费用户获客预算一定的情况下,付费转化率不会影响总的利润,但会显著影响产品的付费规模,转化率低意味着这个产品做不大。 刚才算出来都是在亏钱,基本上投多少最后亏多少,那OpenAI想赚钱要怎么办?答案只有两个,要么把毛利做高,推理成本做到订阅售价的四分之一以下时上面的模型profit会看到转正的迹象;要么就加广告,多赚一种钱,这也是OpenAI和Perplexity在做的。 毛利75%才开始赚钱 上面的计算还没有算任何的人工成本,算上人力成本想赚钱真的太难了。现在大家都吹自己ARR多大,但实际利润可能连影子都还没看到。 大家有兴趣可以去玩一玩这个模拟器,今天就先到这里,下次发文就在东八区了。

December 10, 2025 · 1 min · Yuanhao

Weekly AI Observations: 2025 Year-End Model Selection Guide

It’s the first day of Thanksgiving break—thanks for reading. Last week’s vibe coding interview piece became my most-read article ever, thanks to Ruanyifeng for featuring it in his tech weekly. This week I want to talk about model selection for AI apps at the end of 2025. It’s critical: it drives both quality and cost. Don’t shrug off the difference between $0.20 and $0.25 per million tokens—that’s a 25% gap. If a candidate can rattle off capabilities, pricing, and quirks of today’s mainstream models, that’s a big plus in my book....

November 27, 2025 · 5 min · Yuanhao

每周AI观察:2025年末AI模型选型指南

今天是感恩节假期的第一天,感谢各位读者的支持。上篇关于vibe coding面试的文章是我写作生涯阅读量最高的一篇,最应该感谢阮一峰老师把它收录到了科技爱好者周刊里,让它有机会出现在大家眼前。 这周想聊聊2025年末的AI应用模型选型。模型选型对AI应用来说真的非常重要,不仅决定效果,还影响成本。别看每百万token一个0.2美元一个0.25美元只差5分钱,这里面可是25%的成本差距。如果一个面试者能对现在主流的模型能力、价格、特点如数家珍,在我这里一定是个加分项。 Openrouter的参考价值 Openrouter是个不错的参考,可以看现在别人用什么模型比较多,但上面的分布和真实用量肯定有巨大差别。 Openrouter每周都有模型榜单 首先是上面很多免费token送,一免费用量就会上去,比如现在排第一的Grok 4.1 Fast (free)。第二是上面的用户很多是编程相关的,从top apps一看就比较清楚。第三是真正大量的应用不会在上面跑,Openrouter有5.5%的手续费,中间商赚差价一点不划算。 Openrouter的用量是被几个AI编程工具主导的 先上个表格 我今天特意花时间把我比较关注的几家模型都列了一下,公众号不好分享文件,我就贴个图。这里只关注语言能力,虽然有些模型是多模态的;而且都是标准模型,finetune的模型不在本文讨论之列。御三家里,总体Anthropic最贵,中杯都比其他两家的flagship贵,反过来说就意味着它家的包月是最值的(重度用户如果用API来驱动Claude Code,一天几十刀很轻松)。 当下主流模型信息 小中大杯的选择 正经闭源模型厂商为了满足不同的市场需求,一般分为小中大杯。不管是OpenAI的nano、mini、纯数字,还是Anthropic的haiku、sonnet、opus,亦或是Google的flash lite、flash、pro,甚至是阿里的flash、plus、max都符合这个规律。有一些起步晚、产品线不那么齐全的厂商,比如X.ai,只有俩模型,fast和非fast。 按照我的经验,大杯模型适合直面用户需求的场景,比如chatbot、AI Agent(如编程);中小杯适合离线任务如数据处理、工作流。如果在规模任务上使用大杯模型,轻则荷包出血,重则倾家荡产,大家上线之前一定要慎重。 跟着厂商升级 在同一厂商的产品线内,一定要跟着厂商进行升级。以O家为例,2025年11月还在使用GPT-4o的员工,轻则应给与警告,重则可扫地出门。 随意对比一下就可以发现,GPT-4.1比GPT-4o便宜了不少,具体来说input和output是8折,cached是5折。而且随着模型的进步,往往可以实现4.1-mini实际效果追平4o的情况,那样的话基本是2折不到的价格。 Thinking vs Non-Thinking 在Thinking和Non-Thinking模型之间,也要做好权衡。 GPT-5是一代奇葩,全家爱思考,且不得不思考。轻则简单任务思考400个token,重则复杂任务思考几千个token,Thinking token一律按output计费。你掂量一下你的output有几个字,会不会把钱都砸在动脑筋上了。 好在5.1及时纠偏,可以不思考。如果你的prompt是CoT的,已经有思考路径,那就别让模型自己瞎想,果断选择Non-Thinking模型,随随便便能省出一大笔钱。 缓存命中率 Input/Output和缓存命中率也是需要考虑的一大因素。一定要构建好缓存命中率的内部监控,并且在系统实现时尽可能地提升命中率。目前行情价缓存命中后是1折的价钱,能命中的话能极大降低成本。 输入输出比大的话可以选择input价格有优势的模型,反之选output价格有优势的模型。因为output的价格一般是input的好几倍,但这个倍数不同模型差别较大。O家和G家是8倍,A家是5倍,Kimi是3倍,马老板家大奇葩,是2.5倍。 Throughput的两极分化 Throughput其实也很重要,现在两极分化很严重。一般O家和G家给API的速度都是几十token每秒,但一些ASIC推理厂商已经可以做到上千token每秒。但选ASIC厂商基本意味着只能用少数几个开源模型。 这个体验差别其实是巨大的,但是绝大多数用户还没有体验过。举个大家比较能理解的例子,现在所有的Chatbot产品模型的输出都是"流式"的,这样做是因为模型说完答案可能要好几十秒,先给用户看点东西,不那么枯燥,别等不及跑路了。所以模型推理有一个重要的指标是TTFT(time to first token)。 但是如果把速度提升两个数量级,基本上整个答案就是一起蹦出来的。虽然我们给产品加了流式输出,但用户丝毫感觉不到流式效果。如果Claude Code现在平均5分钟干完一个你的需求,用上ASIC之后可能就是5秒钟。你提需求没他做需求快 :P。 Rate Limit的甜蜜烦恼 还有一个甜蜜的烦恼是rate limit。你需要考虑rate limit说明你的业务还不错,已经有比较稳定的用量。以GPT-5.1为例,Tier1用户每分钟请求的TPM(token per minute)是500k,RPM是500。如果你一个prompt有10k个token(这点token对Agentic应用真的是洒洒水),那意味着你一分钟只能干50个请求。但如果你是尊贵的Tier5用户,这个数会涨80倍,基本就够用了。但一些neo cloud的rate limit一般比较低的,他们没有那么大的算力池来满足瞬时的需求,这是他们相比大厂的一大劣势。 如果你是一个Tier5用户,那你就得好好考虑成本了,几十万美元一个月的token钱其实就有很多省的空间和必要了。 实战分析:5 nano vs 4.1 nano 我们一直用的比较多的是O家模型,总体还是比较满意的。我觉得input 0.1美元以下他们还是做得挺好的,5分钱的5 nano并不算太差,开源界这个价的模型都得8b以下了,除非finetune,否则能力都不咋地。 这里可以实战分析一下:5 nano和4.1 nano,一个thinking一个non-thinking,input一个0.05美元一个0.1美元,output都是0.4美元。假设用medium的reasoning effort,thinking token数约500个,那么两个模型的成本关系就取决于输出token数和input/output ratio。 右上角区域5nano省钱,反之4.1nano省钱 上图横坐标是输入输出比,越大5越容易省钱,纵坐标是输出token数,越大5越容易省钱。简单来说,如果你的任务输出很短,5 nano的thinking开销会让它比4.1 nano更贵;但如果输出很长,thinking开销占比就小了,5 nano的input价格优势就体现出来了。不同的问题成本关系是不同的,需要根据实际场景来选择。...

November 27, 2025 · 1 min · Yuanhao

Weekly AI Observations: Interviews in the Vibe Coding Era

Cover created with Nano Banana Our team’s interview format just changed. Leetcode puzzles are out; building a full feature is in. If you don’t code with AI—and your typing speed isn’t absurd—you won’t finish. It sounds like a tooling upgrade, but it’s actually reshaping what we mean by an “excellent engineer.” The Gap Gets Wider In classic algorithm interviews, the difference between failing and passing might come down to a single hint....

November 19, 2025 · 3 min · Yuanhao

每周AI观察:Vibe Coding时代的面试

Cover created with Nano Banana 我们组的面试方式变了。 从写leetcode题变成让候选人实现一个完整功能。如果你不用AI编程,除非手速超快,否则根本完不成。这种改变看似只是工具的升级,但实际上正在重塑我们对"优秀工程师"的定义。 差距被放大了 原来的算法面试,写不出来和写得出来之间,可能只是一个提示的差别。但现在让你实现一个界面或一个功能,完成度可以是天差地别。 有人能在一小时内做出一个基本可用的页面,交互流畅,样式得体。有人却在和AI的来回修改中越陷越深,最后连基本功能都跑不通。同样是用AI工具,结果却大相径庭。 这种面试方式,把候选人之间的差异放大到了前所未有的程度。 沟通能力成了硬通货 在这种新面试下,沟通能力变得特别关键。不仅是和面试官的沟通,和AI沟通好同样重要。 我最近观察到一个有意思的现象:不善于沟通的人往往对vibe coding比较失望。这不仅体现在讲不清楚需求,更重要的是预期管理的问题。 你不能给沟通对象设定一个好的预期,就很难有好的沟通策略。拿vibe coding举例: 明确告诉AI要改哪些文件,可以大幅减少AI改错的情况 时不时把反馈提给AI让它重构,可以避免工程越写越歪 但如果把AI想得太差,事无巨细都说得一清二楚,效率又会很低 这种把握度,恰恰考验的是对工具能力边界的理解,以及与之协作的能力。 品味变得可以考察了 另一个变得重要的是品味。 这个东西在传统面试里真不太好考察,顶多看看代码风格。我想没有前端面试会去计较CSS里的配色吧。但现在因为面试做的东西展示性强了很多,品味这个以前很虚的东西,突然变得具体可见了。 界面布局是否合理?交互是否流畅?视觉是否舒适?这些过去被认为是"设计师的活"的东西,现在成了工程师面试的考察点。 所以现在应该多花点时间观察和揣摩各个出色的产品。品味不是天生的,是可以通过大量观察和实践培养的。 技术深度依然重要,但体现方式变了 那这种情况下是不是技术就不重要了?并不是。 今天我就遇到了一个特别值得学习的面试者。他在一家澳洲的大厂工作,公司提供了非常完备的AI编码工具给员工用,所以他很习惯这套面试方式。他很快就把我让他实现的功能写出来了,经过一两轮反馈,完成度又提高了不少。 但更厉害的是:他在AI开始工作前,会先给我讲一下他认为AI会在哪里做修改。等AI写完,他会打开对应的地方来验证一下。 这个策略让我对他的好感度一下子提升。一个能指挥AI、让AI放大自己生产力、当AI出错时能给与正确指示的工程师形象就这样树立起来了。 这才是技术深度的新体现方式:不是你能不能手写红黑树,而是你能不能预判AI会怎么实现,能不能快速验证AI的输出是否正确。 工具还没跟上 目前的面试工具好多都还没有适应这套范式。 比如今天用的Show Me Bug,原来他们一个网页端的IDE可以运行代码还挺好用的,但目前还没引入AI编程功能。所以现在最好用的还是视频电话然后共享桌面。 希望以后会有更好用的工具出来,专门为vibe coding面试设计。 AI作弊的悖论 想起来不久之前有个很火的用AI帮面试者作弊的公司。但现在当使用AI成为重要的考察项目,作弊是不是也就无从谈起了? 如果面试本身就是要考察你和AI协作的能力,那用AI还算作弊吗?这个问题挺有意思的。 不得不感叹这两年的变化真的太快了。 从10.11那期我提到Claude Code让我一晚上写了5700行代码,到10.19那期提到AI让我们一周完成三周的工作,再到今天我们已经开始用vibe coding来面试新同事。 AI不仅改变了我们的工作方式,也在改变我们对"优秀工程师"的定义。沟通能力、品味、对工具的掌控力,这些过去相对软性的能力,现在都成了核心竞争力。 而技术深度依然重要,只是它的体现方式变了。

November 19, 2025 · 1 min · Yuanhao