🎉 亲爱的广场小伙伴们,福利不停,精彩不断!目前广场上这些热门发帖赢奖活动火热进行中,发帖越多,奖励越多,快来 GET 你的专属好礼吧!🚀
🆘 #Gate 2025年中社区盛典# |广场十强内容达人评选
决战时刻到!距离【2025年中社区盛典】广场达人评选只剩 1 天,你喜爱的达人,就差你这一票冲进 C 位!在广场发帖、点赞、评论就能攒助力值,帮 Ta 上榜的同时,你自己还能抽大奖!iPhone 16 Pro Max、金牛雕塑、潮流套装、合约体验券 等你抱走!
详情 👉 https://www.gate.com/activities/community-vote
1️⃣ #晒出我的Alpha积分# |晒出 Alpha 积分&收益
Alpha 积分党集合!带话题晒出你的 Alpha 积分图、空投中奖图,即可瓜分 $200 Alpha 代币盲盒,积分最高直接抱走 $100!分享攒分秘籍 / 兑换经验,中奖率直线上升!
详情 👉 https://www.gate.com/post/status/12763074
2️⃣ #ETH百万矿王争霸赛# |ETH 链上挖矿晒收益
矿工集结!带话题晒出你的 Gate ETH 链上挖矿收益图,瓜分 $400 晒图奖池,收益榜第一独享 $200!谁才是真 ETH 矿王?开晒见分晓!
详情 👉 https://www.gate.com/pos
大模型长文本能力突破 40万token或为新起点
大模型长文本能力迎来突破,40万token或只是开始
大模型正以惊人的速度提升长文本处理能力,从4000 token到40万token,这一能力似乎成为大模型厂商的新"标配"。
国际上,OpenAI通过多次升级将GPT-3.5和GPT-4的上下文长度分别提升至1.6万和3.2万token。Anthropic更是一举将上下文长度提高到10万token。LongLLaMA则将上下文长度扩展到25.6万token甚至更多。
国内方面,大模型初创公司月之暗面推出的Kimi Chat可支持输入20万汉字,约40万token。港中文和MIT联合开发的LongLoRA技术,能将7B模型文本长度扩展到10万token,70B模型扩展到3.2万token。
目前,包括OpenAI、Anthropic、Meta、月之暗面在内的众多顶级大模型公司和机构都将拓展上下文长度作为重点升级方向。这些公司也都是资本市场追捧的对象。OpenAI已获近120亿美元投资,Anthropic估值有望达300亿美元,月之暗面成立半年即完成两轮近20亿元融资。
大模型公司如此重视长文本技术,上下文长度扩大100倍意味着什么?
表面上看,这意味着模型可处理的文本长度和阅读能力大幅提升。例如,GPT-3.5只能输入约2000个汉字,而Kimi Chat可输入20万汉字,相当于一本长篇小说。
更深层次来看,长文本技术正在推动大模型在金融、司法、科研等专业领域的落地。长文档摘要、阅读理解、问答等能力是这些领域的基本需求,也是亟待智能化升级的重点。
不过,文本长度并非越长越好。有研究表明,大模型支持的上下文长度与模型效果之间并不存在直接关系,更重要的是模型如何使用上下文内容。
但目前看来,国内外对文本长度的探索还远未达到"临界点"。40万token可能只是一个开始,大模型公司仍在不断突破这一技术。