开源的大模型可以用来干啥
MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o西风发自凹非寺量子位| 公众号QbitAI开源模型上下文窗口卷到超长,达400万token!刚刚,“大模型六小强”之一MiniMax开源最新模型——Mi还有呢? 用于图像适配以及作为基础LLM的MiniMax-Text-01MiniMax-VL-01特别具有动态分辨率功能,可以根据预设网格调整输入图像的大小,分辨率从3还有呢?
(*?↓˙*)
MiniMax发布并开源新一代01系列模型今天,MiniMax发布并开源了MiniMax-01全新系列模型,其中包含两个模型,基础语言大模型MiniMax-Text-01和视觉多模态大模型MiniMax-VL-01。该系列模型以大规模应用线性注意力机制打破Transformer传统架构记忆瓶颈,能够处理400万token的输入,可输入长度是GPT-4o的32倍,Claude小发猫。
ˋ^ˊ〉-#
ˋ▂ˊ
稀宇科技发布并开源新一代 MiniMax 01 系列模型,参数量达4560亿大模型MiniMax-VL-01。为方便开发者研究,该公司还在Github 上开源了两个模型的完整权重。这一系列模型的后续更新,包括代码和多模态相关的后续强化仍待上传。该系列模型首次大规模实现线性注意力机制,打破Transformer 传统架构记忆瓶颈,能够处理400 万token 的输入,可输入说完了。
DeepSeek-V3性能优越且成本较低中国大模型助力AI技术更开放更高效大模型助力AI技术更开放更高效图片由AI生成/刘阳【科技创新世界潮】382)◎本报驻德国记者李山近日,中国初创企业DeepSeek开发的大语言模型(LLM)DeepSeek-V3引发美欧业界广泛关注,该模型在技术性能、开源模式、成本效益等方面的突出表现获得积极评价。开源的DeepSee好了吧!
ˋ^ˊ
你光看见豆包火了,却没见豆包背后的大模型有多卷700亿元用于IDC基建和网络设备。不难发现,字节跳动的饱和式攻击,正是其后来居上的核心原因。赢家通吃模式再现大模型随着国内大模型的持续进步,一大批国内大模型公司正在崭露头角。整个2024年,国内大模型圈子,不仅诞生了吸金200亿的大模型“六小虎”,就连一些融说完了。
ˋ△ˊ
微软开源140亿参数小语言AI模型Phi-4,性能比肩 GPT-4o MiniIT之家1 月9 日消息,在2024 年12 月12 日发布后,微软昨日(1 月8 日)在Hugging Face 平台上,开源小语言模型Phi-4,感兴趣的开发者和尝鲜者可以下载、微调和部署该AI 模型。IT之家注:该模型参数量仅为140 亿,却在多个基准测试中表现优异,甚至超越了参数量更大的Llama 3.3 70B等会说。
全系列模型开源,腾讯混元大模型公布最新开源成绩基于腾讯混元的开源模型,开发者及企业无需从头训练,即可直接用于推理,并可基于腾讯混元系列打造专属应用及服务,能够节约大量人力及算力,加速行业创新步伐。本届大会,腾讯还出品了数据库开源专题论坛并参与大模型开源专题论坛,将腾讯在数据库和大模型上的技术历程与众多开发好了吧!
Meta发布了名为Code Llama 70B的开源大模型观点网讯:当地时间1月29日,Meta发布了名为Code Llama 70B的开源大模型。据Meta介绍,这是Code Llama系列中规模最大、性能最优的模型版本,且与前序模型一样,提供三种免费版本供研究和商业使用。基准测试显示,Code Llama在编码任务上的表现超越了专用的开源模型Llama,甚至好了吧!
≡(▔﹏▔)≡
蚂蚁开源负责人王旭:大模型是新的数据库!新一代LAMP正在形成有了大模型之后,可以及时并全量地高效分析财报。虽然目前的大模型的工作还没有人做得精致且有灵魂,但是单单“量大”、提高效率就是过等我继续说。 我们调取了近两年的整体开源社区的部分数据,进行聚类之后提取出来一些用于构建AI应用的框架、智能体框架以及其他构建AI快速应用开发的等我继续说。
?▽?
腾讯开源混元-3D:首个同时支持文生和图生的 3D 开源大模型腾讯混元今日开源了Hunyuan3D-1.0 大模型,官方称这是首个同时支持文生和图生的3D 开源大模型。▲ 文生模型▲ 图生模型模型采用两阶段生成方法,官方表示在保证质量和可控的基础上,10 秒即可生成3D 资产:第一阶段,团队采用了一种多视角扩散模型,轻量版模型能够在大约4 秒内等会说。
原创文章,作者:上海傲慕捷网络科技有限公司,如若转载,请注明出处:http://geyewr.cn/mvcfj936.html