您现在的位置是:网站首页> AI工具使用

AI最新资讯

摘要

AI最新资讯


1.jpg



普通人也能P视频,Runwan最新上线点击进入Runwan软件页

豆包手机

AI上下文长度



豆包手机

‌豆包手机是字节跳动与中兴通讯联合开发的AI手机产品,主打系统级AI助手功能,因跨应用操作能力引发行业热议,但遭遇微信、支付宝等主流应用的权限限制

豆包手机最新动态

‌产品定位‌:豆包手机(努比亚M153技术预览版)于2025年12月1日发布,售价3499元,首批发售3万台快速售罄,二手市场一度炒至1.29万元。‌‌

‌行业争议‌:中兴通讯终端事业部总裁倪飞回应称,AI手机是未来趋势,努比亚希望通过开放合作提升用户体验,但微信、淘宝等App因风控机制限制其操作权限。抖音副总裁李亮转发支持,称“AI变革真实存在,豆包与中兴的探索是开始”。‌‌

‌技术方向‌:豆包AI助手深度集成于系统底层,可跨应用执行比价购物、订票等复杂指令,但需用户手动完成支付等敏感操作。‌‌


豆包手机助手的功能与争议

‌核心能力‌:通过系统级权限(如INJECT_EVENTS),豆包助手可模拟人工操作完成多任务指令,例如自动登录游戏、整理跨平台信息、生成PPT等。‌‌

‌权限争议‌:部分用户反馈微信、支付宝登录异常,豆包团队随后限制金融类和游戏类应用的AI操作权限。网络安全专家指出,系统级权限可能带来隐私泄露风险。‌‌

‌行业博弈‌:360创始人周鸿祎评价,豆包助手的跨平台能力威胁互联网巨头的流量壁垒,可能引发技术攻防战


豆包与字节跳动的AI布局

‌技术背景‌:豆包是字节跳动2023年推出的AI助手,月活用户达599万,仅次于ChatGPT,依托transformer架构和字节生态数据实现高效交互。‌‌

‌生态野心‌:豆包手机被视为字节跳动突破App生态垄断的尝试,通过AI助手直接调用服务,绕过传统流量入口,但面临巨头风控体系的阻力



AI上下文长度

所谓上下文长度就是一次性输入、输出加在一起的总和。主流模型里面目前最长的是马斯克的 Grok4Fast 以及谷歌的 Gemini2.5pro 模型,这两个模型具有 200 万 Tokens 的上下文窗口,大约可以容纳 150 万个英文单词或者 100 万个中文,这相当于它可以一次性吞下 3-5 本《哈利 - 波特与魔法石》或者整套《三体》三部曲三本书的内容。


接下来是 Anthropic 公司的 Claude4.5Sonnet 以及谷歌最新推出的王炸模型 Gemini3.0pro,这两个模型上下文窗口都是 100 万 TOKEN,能够容纳大约 75 万个英文单词或者是 50 万个中文,可以几乎吃下一整本的《红楼梦》或者一部 500 页的英文专著。


再有就是 GPT-5ProAPI,这个版本的模型上下文窗口大约是 40 万 TOKEN,相当于 30 万个英文单词或者 20 万个中文的汉字,这大概是一篇非常长的博士论文,比如说 400-500 页或者一部中篇的小说。


再说一下国内的豆包 1.6,这个模型的上下文窗口是 25.6 万 TOKEN,相当于 19 万个英文单词或者 13 万个中文汉字,可以完整吃下一部中篇科幻小说,比如说《球状闪电》或者一本 300 页的商业书籍。阿里的千问 3 具有 13 万 TOKEN 的上下文窗口,相当于 9.6 万个英文单词或者是 6 万个中文的汉字,大概是一篇标准的硕士或者博士论文,比如说 100-150 页或者一本《小王子》。


最后就是 DeepSeekV3 和 RI 系列,和千文 3 相似,DeepSeekV3 和 RI 系列也具有 12.8 万 TOKEN 的上下文窗口。







Top