Spansion公司宣布推出首款配备HyperBus接口的RAM产品。作为HyperFlash的配套设备,SpansionHyperRAM存储器可实现简约而经济高效的SoC和微控制器(MCU)解决方案,通过同一个12引脚HyperBus接口连接闪存和RAM。凭借高达333MB/s的读吞吐量,HyperBus设备可实现快速引导、图形显示和实时XIP应用。
Spansion产品营销与生态系统副总裁Jackson Huang表示:“HyperBus接口发展势头强劲,很多芯片供应商已经采用了这个高性能的解决方案。引入HyperRAM存储器是HyperBus接口发展的必然结果,也是HyperFlash的一种完美配套产品。HyperRAM存储器是那些配备有限RAM的SoC的理想选择,提供一个可扩展的解决方案,可将快速读写操作向外延伸,从而早期引导阶段快速呈现出高分辨率图形,在汽车、工业和物联网应用广泛。此外,它还减少了用于支持标准DRAM所需的引脚数量,从而降低了PCB的复杂度和成本。”
SpansionHyperRAM存储器在DDR模式下的运行频率高达166MHz,随机初始访问时间仅为36ns。更快的读取速度意味着能够读取压缩率更低、分辨率更高的图形,显示更加清晰。HyperFlash和HyperRAM相结合可简化电路板设计和软件开发工作,从而加快产品上市速度。可广泛应用于:汽车仪表盘、信息娱乐系统、导航系统、高级驾驶辅助系统(ADAS)、数码相机、投影机、工厂自动化、医疗设备、家庭自动化及电器、手持设备和其它物联网设备。
产品供货
Spansion 64Mb HyperRAM将于2015年第二季度提供样品。它将提供3V和1.8V版本,并采用市场上通用的5x5阵列BGA封装。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。