每天 0 点更新数据,热度根据全网互动数计算
最热 · 今天
最新
Accelerating Scientific Research with Gemini: Case Studies and Common Techniques
2026年02月03日
大型语言模型(LLMs)的最新进展为加速科学研究开辟了新路径。尽管当前模型在辅助完成常规任务方面能力日益增强,但其能否真正参与新颖、高水平的数学发现,仍缺乏深入理解。本文呈现了一系列典型案例,展示了研究人员如何成功地与先进的AI模型——特别是基于谷歌Gemini架构的模型(尤其是Gemini Deep Think及其高级变体)——开展协作,在理论计算机科学的多个方向,以及经济学、优化理论和物理学等其他领域中,解决开放性问题、证伪已有猜想,并生成全新的数学证明。基于这些实践经验,我们提炼出若干在理论研究中实现高效人机协作的通用策略,包括迭代式精化、问题分解,以及跨学科知识迁移。虽然本文绝大多数成果均源于这种交互式、对话式的协作范式,我们也特别指出了一些突破传统聊天界面限制的创新应用:例如,将模型部署为严谨的对抗性审稿人,用以识别现有证明中细微的逻辑漏洞;又如,将模型嵌入一种“神经-符号”闭环系统,使其能够自主编写并执行代码,以验证复杂的数学推导过程。综上所述,这些实例共同表明:AI的潜力远不止于自动化工具——它正日益成长为科学发现创造性过程中一位多才多艺、名副其实的合作伙伴。
1462
热度
许愿开讲
PDF
解读
Working with AI: Measuring the Applicability of Generative AI to Occupations
2025年07月10日
鉴于生成式人工智能的快速普及及其对众多任务可能产生的影响,了解人工智能对经济带来的效应已成为社会所面临的最重要问题之一。在本研究中,我们朝这一目标迈进了一步,分析了人们借助人工智能所从事的工作活动、这些活动完成的成功程度和覆盖广度,并将这些数据与从事这些活动的职业信息相结合。我们分析了一个包含20万个匿名化且经过隐私保护处理的用户与微软Bing Copilot(一款公开可用的生成式人工智能系统)之间的对话数据集。我们发现,人们最常寻求人工智能帮助的工作活动主要包括信息搜集和写作,而人工智能本身最常执行的活动则包括提供信息与帮助、写作、教学和建议。将这些活动分类与任务完成的成功率和影响范围相结合,我们为每种职业计算出一个人工智能适用性评分。我们发现,知识型职业群体(如计算机与数学类职业)以及办公与行政支持类职业,还有如销售等从事信息传递和沟通类工作的职业,其人工智能适用性评分最高。此外,我们还分析了哪些类型的工作活动人工智能完成得最为成功,工资和教育水平如何与人工智能的适用性相关联,以及现实世界中的使用情况与对职业受人工智能影响的预测之间有何差异。
1063
热度
许愿开讲
PDF
解读
Crypto-RV: High-Efficiency FPGA-Based RISC-V Cryptographic Co-Processor for IoT Security
2026年02月04日
密码学运算对于保障物联网(IoT)、边缘计算及自主系统安全至关重要。然而,当前的RISC-V平台缺乏对完整密码算法族及后量子密码学(Post-Quantum Cryptography, PQC)的高效硬件支持。本文提出Crypto-RV——一种面向RISC-V架构的协处理器,其在单一64位数据通路内统一支持SHA-256、SHA-512、SM3、SHA3-256、SHAKE-128、SHAKE-256、AES-128、HARAKA-256以及HARAKA-512等九种主流密码算法。Crypto-RV引入三项关键架构创新:一是高带宽片上缓冲区(容量为128×64位);二是面向密码学运算定制的执行单元,采用四级流水线数据通路;三是针对大哈希(large-hash)运算优化的双缓冲机制与自适应调度策略。该设计在Xilinx ZCU102 FPGA平台上以160 MHz主频实现,动态功耗仅为0.851 W;相比基准RISC-V处理器核心,其性能提升达165倍至1061倍;相比高性能通用CPU,能效提升达5.8倍至17.4倍。整个设计仅占用34,704个查找表(LUT)、37,329个触发器(FF)和22个块存储器(BRAM),充分验证了其在资源受限的物联网环境中实现高性能、高能效密码处理的可行性。
544
热度
许愿开讲
PDF
解读
A Lightweight Library for Energy-Based Joint-Embedding Predictive Architectures
2026年02月03日
我们推出了 EB-JEPA——一个开源库,用于基于联合嵌入预测架构(Joint-Embedding Predictive Architecture, JEPAs)学习表征与世界模型。JEPAs 在表征空间而非像素空间中进行预测,从而规避了生成式建模的固有缺陷,同时捕获具备语义意义的特征,适用于各类下游任务。本库提供模块化、自包含的实现方案,清晰展示了为图像级自监督学习所发展的表征学习技术,如何迁移应用于视频建模(此时需额外处理时间动态带来的复杂性),并最终拓展至动作条件化的世界模型(此时模型还需学习预测控制输入所引发的状态变化)。每个示例均针对单张 GPU 设计,训练耗时仅数小时,使基于能量函数的自监督学习真正成为科研与教学中可及、易用的工具。我们在 CIFAR-10 数据集上对 JEPA 各核心组件进行了消融实验;对所学表征开展线性探针评估,准确率达 91%,表明模型确实习得了富有判别力的有效特征。进一步扩展至视频领域,我们提供了在 Moving MNIST 数据集上的多步预测示例,验证了相同建模原理可自然延展至时间序列建模任务。最后,我们展示了如何利用这些表征构建动作条件化的世界模型,并在“双房间”(Two Rooms)导航任务中实现了高达 97% 的规划成功率。全面的消融分析揭示:每一项正则化组件对于防止表征坍缩均起着不可或缺的关键作用。全部代码已开源,地址为 https://github.com/facebookresearch/eb_jepa。
420
热度
许愿开讲
PDF
解读
vLLM-Omni: Fully Disaggregated Serving for Any-to-Any Multimodal Models
2026年02月02日
能够统一处理文本、图像、视频与音频的“任意模态到任意模态”(any-to-any)多模态模型,代表了多模态人工智能领域的一项重大进展。然而,这类模型架构极为复杂(通常融合多个自回归大语言模型、扩散变换器及其他专用组件),给高效模型部署带来了巨大挑战。当前主流的推理服务系统大多专为单一范式设计,例如仅面向文本生成的自回归大语言模型,或仅面向视觉生成的扩散变换器;它们缺乏对涉及多个相互耦合模型组件的“任意模态到任意模态”流水线的原生支持。因此,开发者不得不手动协调各阶段之间的交互,导致系统性能严重下降。为此,我们提出 vLLM-Omni——一个面向任意模态到任意模态模型的完全解耦式推理服务系统。vLLM-Omni 引入了一种新颖的“阶段抽象”机制,使用户可将复杂的任意模态到任意模态架构分解为一张由相互连接的处理阶段构成的有向图;同时配备了一个解耦式的阶段执行后端,可在不同阶段间协同优化资源利用率与整体吞吐量。每个阶段均由独立的 LLM 引擎或扩散引擎提供服务,并支持按阶段进行请求批处理、灵活的 GPU 资源分配,以及统一的跨阶段数据路由连接器。实验结果表明,相较于现有基线方法,vLLM-Omni 最高可将任务完成时间(Job Completion Time, JCT)缩短 91.4%。本项目的源代码已开源,地址为:https://github.com/vllm-project/vllm-omni。
386
热度
许愿开讲
PDF
解读
High-Performance DBMSs with io_uring: When and How to use it
2025年12月04日
我们研究现代数据库系统如何利用 Linux 的 io_uring 接口实现高效、低开销的 I/O 操作。io_uring 是一种异步系统调用批处理接口,统一了存储与网络操作,弥补了现有 Linux I/O 接口的局限性。然而,简单地用 io_uring 替代传统的 I/O 接口并不一定能带来性能提升。为了阐明 io_uring 在何种情况下能发挥最大优势,以及如何在现代数据库系统中有效使用它,我们评估了两种应用场景:将 io_uring 集成到受存储限制的缓冲区管理器中,以及在网络受限的分析型工作负载中用于高吞吐量的数据重排。我们进一步分析了 io_uring 的高级特性(如注册缓冲区和直通 I/O)对端到端性能的影响。本研究揭示了底层优化在何时能够转化为显著的系统级性能增益,以及系统架构选择如何影响这些收益。基于这些发现,我们提出了利用 io_uring 设计 I/O 密集型系统的实用设计准则,并通过 PostgreSQL 近期集成 io_uring 的案例研究验证了这些准则的有效性,结果表明应用这些准则可带来 14% 的性能提升。
364
热度
许愿开讲
PDF
解读
Co-RedTeam: Orchestrated Security Discovery and Exploitation with LLM Agents
2026年02月02日
大语言模型(LLMs)在辅助网络安全任务方面已展现出良好潜力,但现有方法在自动漏洞发现与利用方面仍面临显著挑战,主要受限于交互能力不足、执行过程缺乏实际支撑,以及难以复用过往经验。为此,我们提出Co-RedTeam——一种面向安全领域的多智能体框架,其设计旨在真实还原红队演练的工作流程,深度融合网络安全领域知识、代码感知型分析能力、以实际执行为依据的迭代式推理机制,以及长期记忆功能。Co-RedTeam将漏洞分析任务解耦为协同联动的“发现”与“利用”两个阶段,使各智能体能够基于真实的执行反馈,动态开展规划、执行、验证与优化,并从历史行动轨迹中持续学习与积累经验。在多个高难度网络安全基准测试上的大规模评估表明:Co-RedTeam在各类主流骨干模型上均持续超越强基线方法,在漏洞利用任务中成功率超过60%,在漏洞检测任务中准确率提升幅度达10个百分点以上(绝对提升)。消融实验与迭代分析进一步证实:执行反馈机制、结构化交互范式以及长期记忆能力,对于构建鲁棒性强、泛化能力优的网络安全智能体至关重要。
308
热度
许愿开讲
PDF
解读