火端泛站
(来源:上观新闻)
V4-Pro 🍮在编程🇻🇮🍾评测 Code🇰🇷🏍forces 上🌃🇲🇲得分 320🥓6,比肩 GP🛌🕧T-5.4🏌️♀️;在软件工程基🧦准 SWE🇨🇿🇲🇳-bench 🥁上达到 8🌰0.6🏆%,接近 🍩😢Cla🇧🇭ude🦈 Opu🦘s 4.6👺🎖;Agent♑ic 🎡Codi🇻🇦🇳🇴ng 能力在开🛵🇫🇰源模型中排🥓名最高,内部测试👆中交付🧡质量接近 🦵Sonnet 4🍅.5——此前这个🧂层级的能力几乎🐏被闭源厂商垄断🎠。
分析认为,他上🚧📹火端泛站任后将同🚛时面临A➰I转型、芯片🇧🇿🇮🇸供应紧张,以🕓及内存成本🎠🇭🇺上涨等多重挑战🍪🇩🇴。这些内部🕤🖌交易让部分投资者🇲🇨和分析👍👩🏫师担心潜在利益🕍🇲🇾冲突🆎。但 token👨-wise🖨🥟 压缩,🇬🇵应该是 🕑🔨V4 🎊🖼首先应用到了🐗工业级模型🇦🇫上🚽🇬🇳。
部分行业大咖😍甚至直言,🇭🇹火端泛站未来程序员岗位🦛或将逐步消失,🇭🇺行业迎🧟♂️©来重大职🍑业变革❗🅿。) 此外🇸🇱,我们最近发❄的 Hi🧧Spar🚵se 把稀疏🇭🇲🏏注意力的 KV🍮 卸载到🛴🏍主机内存💡,在长上下文场景🏧💦能拿到 5🚊🇸🇧 倍吞吐🇬🇧。这一代模🦷型分为V4-P⌛ro(1.6☁🏹万亿参数,49🙊💦0亿激活🅱)和V4📦-Flash♑🎖(284🇧🇹0亿参数,📸130亿激活)✅两个版本,上下🇬🇲🇲🇴文处理长度🎻从上一代的12🇨🇦8K扩👮👶展至1M(约一🤕百万字),在Ag😻ent(➰智能体)能🇹🇳◻力、数学推🛄🇰🇿理和代码生成🇺🇲🎊上均达到开源模型🍋🥓的最好水平之一🗑。