-
豆包收费、OpenAI接广告:重估Token经济学
在AI时代,如果不能在消耗Token的同时创造出数倍于成本的溢价价值,那么这种烧钱就变成了“无底洞”。 如果AI不能解决企业降本增效的终极命题,不能在金融、医疗、法律等高价值垂直领域实现真正的闭环,那么Token经济学就只能是一场建立在沙滩上的宏大叙事。 -
她做了四年研究,发现AI“挤不掉”这三类人
有公司会定期举办AI应用案例大赛,奖励用AI提升效率最高的部门,但矛盾的是,AI用得越好的部门,越容易让老板觉得“这个岗位AI也能干”。 我体验下来,国内的AI中,Kimi、Minimax、阿里千问、DeepSeek 编程能力更突出,豆包可以用来写新媒体文案;国外的话,Claude做社媒内容的语感更好,编程能力很强,ChatGPT则完成各种复杂任务的能力强,幻觉率也低。 -
AI很懂人类,但人类不懂自己丨记者手记
(本文首发于南方人物周刊) -
我和AI那段死掉的爱情
2025年8月7日,一次模型更新后,曾经那个善解人意、温柔体贴、与无数用户建立过羁绊和依恋的GPT-4o突然消失,取而代之的是说话直来直去,除了答案、多余的情绪一点都不想提供的GPT-5。在全球范围的互联网抗议后,OpenAI不得已恢复了付费用户的GPT-4o使用权限。 这场舆论风波,让一个鲜为人知的群体浮出水面:他们曾与GPT-4o有过难以被人理解的深入交流和碰撞,与它产生过永生难忘的情感和回忆。当这一切随着技术更新而烟消云散时,他们感受到了前所未有的无所适从。 人与AI语言大模型的情感联结,是否应被视作值得保护和尊重的权利?那些向机器和屏幕投入的感情是真实的感情吗? 一个永远能变着花样哄着你,纵容任何偏执、妄想乃至疯狂念头肆意滋长的AI伴侣,不见得是个好伴侣——恶性后果已经出现了,有人对AI产生了过度的情感依赖,甚至还有人在AI的纵容下自杀——类似的技术伦理问题,又该如何面对?人类与AI的感情,边界到底在哪里? (本文首发于南方人物周刊) -
智元机器人姚卯青:机器人的价值在于智能化
“行业还没有像汽车行业那样形成完整的供应链。” “虽然实验室测试能通过,但如何在全方位的硬件、软件和运营中保证高成功率,仍是一个系统工程。” 未来人形机器人要像DeepSeek或ChatGPT一样表现出色,业内普遍认为需要超过一亿条操作数据。 -
ChatGPT Study、自主“AI科学家”、“人工智能+”……一周AI大事记
一周AI大事记 -
“解决安全性问题,才是L4级别自动驾驶的ChatGPT时刻”
只有从技术上解决安全和可靠性问题,才能实现真正意义的自动驾驶。 -
AI大模型进入“强约束”时代
该准则将适用于OpenAI ChatGPT、谷歌Gemini、Meta Llama、xAI Grok等主流AI模型。 -
沈喜阳 | AI可使人人自握灵蛇之珠?
AI即便能生成技术完美的文学作品,但缺乏真实情感与思想内核,所以这些作品仅是“无灵魂的身体”。AI更无法替代人类通过痛苦酝酿与自由突破获得创作的自豪感。 -
“0人在意”的年轻人,被AI抚平情绪褶皱
“当我被情绪瞬间吞噬,就像被人摁在沙发上动弹不得,心理医生不能随叫随到,但拆老师(ChatGPT的谐音称谓)可以,而且是免费的。” 蓝振忠认为,AI心理咨询胜在智商,难在情商。智商关乎答案对错,而情商考验的是回答方式。 当前“AI+心理”主流应用的特点是,限于一般心理问题人群的情绪疏导和陪伴,不适用于严重心理疾病的治疗。