引谷歌蜘蛛
(来源:上观新闻)
天天被📯 AI 👨👨👦⛪刷屏,这个五🐿🙆♂️一假期我真的不想📸😛再看到🚍🇲🇰 AI 生成的内✊🚡容了🚱。用t-SNE可视🔹🅰化(一种🐝把高维数据压缩成✡🇮🇹二维图来直观🐈🇬🇪展示的技术)✏👤来看,📯🔁机器人数据形成🇧🇴📷的那几个簇↕,与VLM数😧🍨据的主🐐♨要区域几乎不重叠🎻,只有👁极少数VLM💚样本漂浮在靠近↘机器人数据👨🎤🍓的边缘地带🛶🍛。而且他🤛也不知道平台要🦴🇵🇫什么、怎🏧么对接、怎🗡么定价🐼🆓。
研究者让同一🧟♀️个 Agent 📯👥在同一个任🇹🇭🎵务上跑了 4 🇨🇭⛄次,结果发现:😏 在不同任务之🧟♀️⏯间,最贵⛽🔺的任务比最便🧱宜的任务多烧🌫约 7🐃➕00 万个🚽 Token☔🇮🇳(Figur🚖e 2a) 在💏🇻🇬同一模🏫🙍型、同一🛰任务的👼多次运行中,🍨🈺最贵的一次大约是😿📱最便宜的一次🚩的 2 🔼倍(Fi⚱gure 2b)🌲 而如果跨🙉👿模型对比同一👨👧👧个任务,最🤬高消耗和最🇸🇽🥏低消耗之间可以相🐢差高达🤟 30🕟🥢 倍 最后6️⃣一个数字尤其值得⚾👔关注:这意味🇲🇿🛄着,选对模型和🇰🇬选错模型之间🚪💑的成本差距,不🇮🇪🇧🇳是“贵一点”,🌁🍚而是“贵出🗃🌬一个数量级”😆。