AMD将展示神经纹理块压缩技术 减少游戏体积
近日推主GPUOpen在X上发推透露,AMD工程师S.Fujieda和T.Harada将在下周的第35届欧洲图形渲染研讨会上介绍一种神经纹理块压缩技术(neuraltextureblockcompression),主要目标是大幅度减小不断增长的游戏体积。利用神经网络,纹理(罪魁祸首之一)将被压缩,以减少数据
胜宏科技接待7家机构调研,包括深圳证券交易所、粤开证券、方正证券等
2024年6月28日,胜宏科技披露接待调研公告,公司于6月27日接待深圳证券交易所、粤开证券、方正证券、华创证券、平安证券等7家机构调研。公告显示,胜宏科技参与本次接待的人员共4人,为董事会秘书赵启祥,财务总监朱国强,投资者关系经理朱溪瑶,证券事务代表周响来。调研接待
胜宏科技:6月27日组织现场参观活动,深圳证券交易所、粤开证券等多家机构参与
证券之星消息,2024年6月28日胜宏科技(300476)发布公告称公司于2024年6月27日组织现场参观活动,深圳证券交易所、粤开证券、方正证券、华创证券、平安证券、浙商证券、投资者参与。具体内容如下:问:投资者参观公司展厅、生产车间答:公司在工厂运营方面的优势主要基于稳定
蚂蚁数科面向企业发布大模型服务平台,兼容适配主流开源大模型
6月28日,蚂蚁数科旗下多云PaaS平台SOFAStack正式发布大模型服务平台AIMax。该平台兼容适配主流开源大模型、国产算力,向企业提供进行模型训练、部署、评估、优化等一站式模型工作台,并实现可视化研发、管理多种具备行业知识库的Agent(智能体)应用,助力企业跑完企业AI应
谷歌发布Gemini 2语言模型:性能强劲,成本更低
6月28日,谷歌公司发布了其第二代大语言模型Gemma2,并向全球的研究人员和开发人员开放。Gemma2拥有90亿参数(9B)和270亿参数(27B)两种配置。与第一代相比,Gemma2在推理性能和效率方面都有显著提升,并且在安全性方面也取得了重大进展。据谷歌介绍,Gemma2-27B模型的
90/270 亿参数,谷歌发布 Gemma 2 AI 大语言模型
IT之家6月28日消息,谷歌公司昨日发布新闻稿,面向全球研究人员和开发人员发布Gemma2大语言模型,共有90亿参数(9B)和270亿参数(27B)两种大小。Gemma2大语言模型相比较第一代,推理性能更高、效率更高,并在安全性方面取得了重大进步。谷歌在新闻稿中表示,G
傲视群雄,阿里通义千问 Qwen2-72B 成“王者”
IT之家6月28日消息,HuggingFace联合创始人兼首席执行ClemDelangue于6月26日在X平台发布推文,表示阿里云开源的通义千问(Qwen)指令微调模型Qwen2-72B在开源模型排行榜上荣登榜首。HuggingFace公布了全新的开源大语言模型排行榜,通过300片英伟达H100
谷歌最强开源模型Gemma 2发布!270亿参数奇袭Llama 3
作者|ZeR0编辑|漠影智东西6月28日报道,昨晚,谷歌在I/OConnect大会上放大招,公布其新一代最强开源模型——Gemma2。Gemma2有90亿(9B)和270亿(27B)两种参数规模可用。27B模型训练了13Ttokens,9B是8Ttokens,都拥有8192上下文窗口,可在GoogleAIStudio中使用。
一加 Ace 3 Pro测评:真正的六边形战士,性能续航全都要
 因为芯片工艺的改进,近几年的手机性能有着明显的增长,随之而来的问题是功耗也更大了。因此用户日常使用时,面临的问题不再是性能不够,而是续航问题。从目前的机型来看,厂商主流的解决方案是,提高充电功率,缩短充电时间来缓冲续航焦虑。那有没有一种方案,既保留高功率
面向终端侧生成式AI规模化扩展,高通重新定义SoC系统性能
允中发自凹非寺量子位|公众号QbitAI6月27日,高通公司AI产品技术中国区负责人万卫星出席2024世界移动通信大会(MWC上海),并在“人工智能领域的投资、创新与生态系统发展”主题会议发表了主题为“终端侧生成式AI的未来”的演讲。他指出,生成式AI的能力和用例正不断丰