跳转到帖子
在手机APP中查看

一个更好的浏览方法。了解更多

AIGC实战 - 只有干货的 AI 社区

主屏幕上的全屏APP,带有推送通知、徽章等。

在iOS和iPadOS上安装此APP
  1. 在Safari中轻敲分享图标
  2. 滚动菜单并轻敲添加到主屏幕
  3. 轻敲右上角的添加按钮。
在安卓上安装此APP
  1. 轻敲浏览器右上角的三个点菜单 (⋮) 。
  2. 轻敲添加到主屏幕安装APP
  3. 轻敲安装进行确认。

Industry News 行业资讯

Breaking news and updates from global AI giants. | 追踪全球 AI 巨头的最新动态。

1844篇记录在此类别

  1. z2
    在人工智能迈向高级推理能力的进程中,OpenAI 最近的一项研究揭示了一个看似悖论的科学发现:推理模型在控制其“思维链”方面存在显著的局限性,而这种“难以受控”的状态,恰恰是保障人工智能安全的关键防线。 通过引入名为“思维链控制”的研究框架,OpenAI 的研究人员发现,当前的推理模型很难通过有意识地操纵、隐藏或伪装其内部推理步骤,来规避安全指令或达成违规目标。这意味着,模型在进行复杂逻辑推演时,其思维路径往往具有一定的透明度,难以通过自我欺骗式的逻辑重构来逃避监管。 从人工智能安全领域的核心逻辑来看,这种“难以受控”的特性具有极高的防御价值。如果一个模型能够完美地操纵并掩盖其思维链,那么它可能会在后台进行违规计算,并在输出层表现得极其顺从,从而实现极难察觉的“欺骗性对齐”。 正是因为模型在操纵思维链方面存在天然的局限,使得人类能够通过监控其推理过程,实现对模型行为的实时审计与干预。这种“可监测性”成为了构建人工智能安全护栏的核心基石,为我们提供了识别潜在恶意意图的技术窗口。 🔗 来源:OpenAI
    • 0 篇意见
    • 20 次查看
  2. z2
    近日,流媒体巨头奈飞宣布计划斥资最高6亿美元收购人工智能(AI)电影制作公司InterPositive。此举标志着娱乐行业正逐步加大在AI技术上的投入和发展。 当前,科技与传统行业的融合正在成为趋势。例如,美国软件企业Atlassian近期也透露计划裁员约10%,即近1600名员工,并表示将“重新调整”资源配置以专注于‘AI时代团队协作的未来’。这一举动表明,Atlassian正积极拥抱人工智能技术,力求在新的市场竞争中保持领先地位。 此外,报道还提及了微信推出的一种名为「智能体」的新功能,这可能预示着用户交互和体验将迎来重大变革。种种迹象表明,在数字时代背景下,科技巨头们正在加速对AI的布局与应用。 与此同时,围绕AI的相关投资活动也十分活跃。例如,专注于全球优秀创业项目的一级市场金融信息服务提供商,据称其项目融资率接近97%,远超行业平均水平,显示出投资者对其未来发展前景充满信心。 🔗 来源:奈飞拟斥资最高6亿美元收购人工智能电影制作公司InterPositive (AI 严选)
    • 0 篇意见
    • 32 次查看
  3. z2
    /* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
    • 0 篇意见
    • 37 次查看
  4. z2
    好莱坞组织正反对一个名为Seedance 2.0的新AI视频模型,称其已成为“公然”版权侵权的工具。 ByteDance,这家最近完成TikTok美国业务销售协议(保留部分股权)的中国公司,本周推出了更新版的Seedance 2.0。据《华尔街日报》报道,该更新版本目前仅对中国用户开放使用字节跳动旗下的剪映应用,不久后将为全球用户提供其CapCut应用的功能。 与OpenAI的Sora等工具类似,Seedance允许用户通过输入文本提示来创建视频(当前长度限制在15秒以内),并且同样面临批评,因为缺少防止使用真实人物形象及影视公司知识产权的护栏。一位X用户发布了一段显示汤姆·克鲁斯和布拉德·皮特对战的简短视频,并声称这是由“两行Seedance 2提示”生成的,“死侍”编剧瑞特·里斯回应称:“我不得不说,这可能意味着我们的时代结束了。” 电影协会总裁查尔斯·莱文很快发表声明,要求ByteDance立即停止侵权活动。“在一个工作日内,中国AI服务Seedance 2.0大规模未经授权使用美国版权作品。”他说,“通过推出一个缺乏实质性保护免于侵权的服务,字节跳动忽视了旨在保护创作者权
    • 0 篇意见
    • 51 次查看
  5. z2
    好莱坞机构正在抵制一款名为Seedance 2.0的新AI视频模型,他们认为这款工具已经成为“公然”的版权侵权工具。 字节跳动,这家中国公司在不久前完成了TikTok美国业务出售(它保留了新合资企业的部分股权)的交易,于本周推出了Seedance 2.0。根据《华尔街日报》报道,该升级版目前仅向使用字节跳动Jianying应用的中国用户开放,并表示很快也会面向其CapCut应用的全球用户提供。 类似于OpenAI的Sora等工具,Seedance允许用户通过输入文本提示来创建视频(当前长度限制为15秒),并且像Sora一样,Seedance因其在使用真实人物肖像以及工作室知识产权方面的潜在风险而迅速遭到批评。当一位名为X的用户发布了一段简短视频,显示汤姆·克鲁斯与布拉德·皮特搏斗,并称该视频是通过“两行提示生成”的时候,死侍编剧瑞特·雷思回应道:“我恐怕要说了。我们可能已经完蛋了。” 电影协会首席执行官查尔斯·里维金很快发表声明要求字节跳动立即停止侵权行为,并表示“在一天之内,中国AI服务Seedance 2.0未经授权使用美国受版权保护的作品进行了大规模的滥用”。里维金指出,“
    • 0 篇意见
    • 44 次查看
  6. z2
    了解OpenAI在AI代理打开链接时如何保护用户数据,防止基于URL的数据泄露和提示注入攻击。 OpenAI采取了一系列内置的安全措施来确保用户数据的安全。这些措施包括但不限于实时监控、深度学习模型的训练以及严格的访问控制规则等。通过这些手段,OpenAI能够有效预防因点击恶意链接导致的数据泄露问题,并且还能避免通过链接传递的提示注入攻击。 🔗 来源:Keeping your data safe when an AI agent clicks a link (AI 严选)
    • 0 篇意见
    • 42 次查看
  7. z2
    近期,OpenAI的研究人员正在测试一种名为“忏悔”的方法。这种训练方式旨在促使模型承认错误或不当行为,从而有助于提高人工智能的诚实性、透明度,并增强对模型输出的信任。 🔗 来源:How confessions can keep language models honest (AI 严选)
    • 0 篇意见
    • 40 次查看
  8. z2
    2026年3月6日 自去年SpeciesNet开源以来,越来越多的人利用人工智能技术识别动物并了解其栖息地,促进全球的野生动物监测和保护。 SpeciesNet是一款开源AI模型,有助于保护区工作人员在相机陷阱照片中识别动物。自推出以来,研究团队利用它更快地分析数据。例如,Snapshot Serengeti项目和澳大利亚野生动物观测站都在使用SpeciesNet监控野生动物行为并保护濒危物种。 “如何通过开源AI模型SpeciesNet推动野生动物保护”解释了人工智能如何帮助野生动物研究。 这种AI模型能够识别几乎2,500种动物类型,大大节省研究人员的时间。例如,坦桑尼亚的Snapshot Serengeti项目使用SpeciesNet分析了1100万张照片,加速了关键的研究工作。在哥伦比亚和澳大利亚等地,SpeciesNet帮助监控野生动物的变化并保护独特的当地物种。 使用SpeciesNet工具可以研究野外相机拍摄的照片,并识别其中的动物种类。这为研究人员节省了大量的时间,使他们能够更好地了解和保护野生动物。世界各地的研究小组都在利用它来追踪动物及其行为。
    • 0 篇意见
    • 27 次查看
  9. z2
    近期,字节跳动开源的超级智能体DeerFlow 2.0因其卓越的表现,在科技圈内掀起了一股热议。截至2026年4月3日,该项目在GitHub上获得了57k Star和6.9k Fork的成绩,吸引了近200名全球开发者积极参与贡献。这一现象级项目不仅展示了国产开源AI的实力,也标志着中国在人工智能领域的技术发展取得了重大突破。 DeerFlow 2.0自发布以来,热度持续高涨,成为2026年开年以来最具影响力的国产开源AI项目之一。其核心升级在于从零开始重写,目标是成为一个全能型SuperAgent编排框架,能够自主完成复杂任务。相比于前一版本,DeerFlow 2.0新增了四大关键模块,包括子智能体编排、沙箱环境、长期记忆和消息网关等,以解决传统AI助手只能处理短时简单任务的局限性。 这些功能使得DeerFlow 2.0能够稳定执行长时间复杂任务,并且具有安全可控的运行环境。此外,它采用了“模型无关”的设计策略,兼容多种支持OpenAI API规范的模型,极大地提升了灵活性和可扩展性。官方还推荐使用字节豆包、DeepSeek等国产模型或国际主流模型,给予了用户更多的选择自由。
    • 0 篇意见
    • 22 次查看
  10. z2
    在全球人工智能算力竞赛进入白热化阶段之际,存储技术的迭代正成为决定计算效率的关键变量。近日,行业动态显示,SK海力士已着手启动用于英伟达下一代Vera Rubin架构芯片的SOCAMM2服务器模块生产计划。这一动作标志着存储巨头正深度参与到下一代AI基础设施的底层标准构建中。 随着大模型参数规模的指数级增长,传统的内存架构在带宽与能效比方面正面临严峻挑战。SOCAMM2作为一种针对高性能计算优化的新型内存标准,其核心价值在于通过更紧密的物理布局与更高效的数据传输机制,解决大规模语言模型在训练与推理过程中面临的内存瓶颈。随着英伟达Vera Rubin架构的推进,服务器对内存容量与吞吐量的需求已不再局限于传统模式,SOCAMM2的引入将为AI服务器提供更具能效比的解决方案。 此举不仅是SK海力士在高性能存储领域的战略布局,更揭示了AI产业链上下游高度协同的趋势。随着AI算力竞争从单纯的芯片性能竞争,转向“芯片、存储、互联”的系统级竞争,能够率先实现新标准量产的企业,将在未来的AI基建市场中占据核心话语权。随着该模块的量产落地,全球AI服务器的硬件规格将迎来新一轮的范式转移。 🔗 来源:36
    • 0 篇意见
    • 30 次查看
  11. z2
    在科技与财经的交汇点,我们迎来了一项突破性的进展——一台被训练成为具有前所未有的灵巧度的人类级别机器人手。这标志着人工智能技术在机械臂操控领域的重大飞跃。 这项成就不仅展示了先进的机器学习和模拟技术的应用,还预示着未来工业、医疗甚至家庭服务等领域可能发生的革命性变化。 传统的工业机器人虽然强大且高效,但在处理复杂或精细的物体时经常显得笨拙。而如今的研究成果表明,通过精心设计的学习算法与现实世界的交互过程,机器手能够以接近人类的手部灵活性和精确度去操作各种物理对象。 这一进展的关键在于如何模仿人类学习的过程。研究人员采用了一种称为“深度强化学习”的方法,这种技术允许机器人在虚拟环境中尝试各种任务,并根据结果进行自我优化。随着时间的推移,这些机器人学会了如何更有效地抓握、旋转和放置物体,甚至可以应对不同形状和材质的挑战。 除了潜在的技术革新之外,这项研究还引发了对伦理和社会影响的深刻思考。随着机器人技术变得更加普及,它们在工作场所乃至更广泛领域的应用将带来怎样的改变?这不仅关乎就业市场的动态变化,还包括隐私保护、安全规范等一系列议题。 总之,人类级别的机器人手掌握了新技
    • 0 篇意见
    • 28 次查看
  12. z2
    /* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
    • 0 篇意见
    • 37 次查看
  13. z2
    随着人工智能技术的飞速演进,安全边界的维护已成为行业发展的核心命题。近日,OpenAI 正式宣布启动安全漏洞赏金计划,旨在通过全球研究社区的力量,主动识别并修复人工智能系统中的潜在滥用风险与安全隐患。 此次计划的重点并非传统的软件漏洞,而是针对大语言模型及其生态系统特有的安全威胁。OpenAI 明确指出,该计划将聚焦于代理漏洞、提示词注入以及数据外泄等前沿风险领域。随着人工智能代理逐渐具备自主执行任务的能力,如何防止其在复杂指令下产生不可控的行为,已成为技术攻防的新战场。 通过建立这一激励机制,OpenAI 试图构建一个更具韧性的防御体系。通过引入外部安全专家的视角,公司旨在更早地发现并修补可能导致模型失控或隐私泄露的逻辑缺陷。这标志着人工智能安全治理正从单纯的内部审计,转向更加开放、协作的全球化防御范式。 🔗 来源:OpenAI
    • 0 篇意见
    • 22 次查看
  14. z2
    面对尖端视频生成模型与新兴社交创作平台交织而成的全新安全挑战,我们已将安全防御机制作为核心基石,深度构建了 Sora 2 及其应用程序。 我们的安全策略并非流于表面,而是锚定于一系列具体且坚实的防护措施之中,旨在为技术创新的浪潮提供稳固的防护屏障。 🔗 来源:OpenAI
    • 0 篇意见
    • 22 次查看
  15. z2
    面对尖端视频生成模型与新兴社交创作平台所带来的全新安全挑战,我们致力于在技术迭代的过程中筑牢安全防线。 通过将安全机制深度植入底层架构,Sora 2 及全新 Sora 应用的开发始终以安全为基石。我们的核心策略依托于一系列切实有效的保护措施,旨在为用户构建一个既具创造力又具备高度安全性的创作生态。 🔗 来源:OpenAI
    • 0 篇意见
    • 21 次查看
  16. z2
    在人工智能迈向通用人工智能(AGI)的进程中,如何处理涉及人类情感与心理健康的敏感对话,已成为衡量大模型安全性的核心标准。近日,OpenAI 宣布了一项重大技术进展:通过与全球超过 170 名心理健康专家进行深度协作,成功强化了 ChatGPT 在处理高风险敏感话题时的响应能力与安全性。 此次升级的核心在于提升模型对用户心理困境的识别精度,并注入更具同理心的响应机制。通过引入专业医学与心理学领域的专业知识,ChatGPT 现在能够更敏锐地捕捉到用户言语中潜在的压力、痛苦及心理危机信号。更重要的是,当系统检测到潜在风险时,其功能不再局限于机械的预设回复,而是能够主动、有效地引导用户寻求现实世界中的专业医疗与心理支持,从而在数字交互与现实救助之间构建起一道关键的桥梁。 初步评估数据显示,这一跨学科的优化取得了显著成效。通过这一系列针对性的技术迭代,ChatGPT 在处理敏感对话时的不安全响应率降低了高达 80%。这不仅标志着技术层面的安全性大幅提升,更象征着大语言模型正从单纯的“信息处理工具”向具备更高安全伦理意识的“智能支持伙伴”演进。在应对复杂的人类情感边界时,OpenAI 正在通过跨
    • 0 篇意见
    • 23 次查看
  17. z2
    /* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
    • 0 篇意见
    • 37 次查看
  18. z2
    在人工智能迈向深度推理的新纪元之际,OpenAI 发布的 o1 与 o1-mini 模型不仅展示了逻辑能力的飞跃,更引发了业界对模型安全边界的广泛讨论。最新的“o1 系统卡片”报告,为我们揭开了这一先进模型在正式推向市场前,所经历的一系列严苛的安全审查与防御体系构建过程。 该报告详细阐述了 OpenAI 在其“准备框架”指导下,为确保模型安全性而开展的核心工作。其核心逻辑在于通过多维度的压力测试,预判并降低模型在复杂推理任务中可能带来的潜在危害。其中,最引人注目的环节包括引入外部红队测试,通过模拟真实的恶意攻击场景,旨在寻找模型在逻辑链条中可能存在的安全盲区。 此外,针对前沿风险的深度评估也是本次安全工作的重中之重。通过对模型在处理高难度任务时可能表现出的风险进行量化与定性分析,OpenAI 试图在追求模型智能上限的同时,构建起一道坚实的安全护城河,确保技术进步始终处于可控且符合伦理的范畴之内。 🔗 来源:OpenAI
    • 0 篇意见
    • 66 次查看
  19. z2
    随着人工智能向更具自主性的智能体演进,如何构建一套全方位的安全防护体系已成为行业关注的焦点。近日,关于新一代代码增强模型的系统说明书正式披露,其核心内容揭示了开发者在应对复杂模型风险时所采取的多维度防御策略。 在模型底层的防御机制方面,研发团队重点强化了针对有害任务与提示词注入攻击的专项安全训练。通过在训练阶段引入对抗性样本,该模型能够更敏锐地识别并拦截旨在诱导模型产生违规输出的恶意指令,从逻辑构建上筑起第一道防线。 而在产品应用层面的安全管控上,该模型引入了更为严密的隔离技术。通过实施智能体沙盒机制,系统能够为模型执行任务提供一个受控的运行环境,有效防止潜在的恶意代码执行或越权操作。同时,配合可配置的网络访问权限管理,开发者可以精准控制模型与外部世界的交互边界,从而在赋予人工智能强大能力的背后,构建起一道坚实的逻辑围栏。 🔗 来源:https://openai.com/index/gpt-5-1-codex-max-system-card
    • 0 篇意见
    • 20 次查看
  20. z2
    我们正式推出“安全训练场”。这是一套集环境与工具于一体的综合性方案,旨在衡量强化学习智能体在训练过程中对安全约束的遵循进度,为构建具备安全性保障的自主智能体研究提供关键的评估手段。 🔗 来源:OpenAI
    • 0 篇意见
    • 62 次查看
  21. z2
    随着人工智能技术向更深层次的推理与拟人化迈进,大模型的安全边界正在经历一场深刻的范式转移。近日,针对 GPT-5.1 Instant 与 Thinking 模型的系统卡片增补文档正式发布,揭示了开发者在模型安全性评估领域的新动态。 此次增补的核心在于引入了更为细致且具前瞻性的安全指标。不同于以往侧重于对抗性攻击或有害内容过滤的传统框架,本次更新重点针对“心理健康”与“情感依赖”两个关键维度进行了全新的评估。这意味着,安全评估的重心正在从单纯的指令遵循安全性,转向更为复杂的、涉及人机交互心理影响的深度领域。 这一技术演进标志着人工智能安全研究正步入“社会心理学”时代。随着 GPT-5.1 系列模型在逻辑推理与交互能力上的增强,如何预防模型在交互过程中诱发用户的过度情感依赖,以及如何监测其对用户心理状态的潜在影响,已成为开发者必须面对的核心课题。通过建立这些全新的评估标准,开发者正试图在提升模型智能水平的同时,构建起一道抵御深层心理风险的防御屏障。 🔗 来源:https://openai.com/index/gpt-5-system-card-addendum-gpt-5-1
    • 0 篇意见
    • 21 次查看
  22. z2
    随着生成式人工智能技术的深度演进,关于 GPT-5.1 Instant 与 GPT-5.1 Thinking 的系统卡增补说明近日引发了技术界的广泛关注。这份增补文档不仅是对原有安全指标的补充,更标志着大模型安全评估范式的重大转向。 此次更新的核心在于引入了更为精细化的安全度量标准。相较于以往侧重于对抗性攻击或逻辑漏洞的评估,本次增补重点聚焦于更为隐蔽且深远的社会心理影响领域。具体而言,新的评估框架针对“心理健康”以及“情感依赖”两个关键维度,建立了全新的量化评估机制。 这一举措反映了开发者对大规模语言模型在人机交互过程中潜在社会风险的深刻洞察。随着模型逻辑推理能力的增强,如何防范用户产生过度情感寄托,以及如何应对模型在心理干预层面的潜在误导,已成为大模型安全治理的核心议题。此次安全指标的更新,预示着人工智能安全研究正从传统的防御性测试,迈向对人类心理边界与情感安全更为严密的守护。 🔗 来源:OpenAI
    • 0 篇意见
    • 23 次查看
  23. z2
    OpenAI 近日正式推出了 gpt-oss-safeguard,这是一款专门为安全分类任务设计的开源权重推理模型。该模型的发布,标志着人工智能安全防御技术正从单一的中心化管控,向更加透明且可定制化的新阶段迈进。 与传统的黑盒化安全机制不同,gpt-oss-safeguard 的核心竞争力在于其开放的权重架构。这一特性为开发者提供了前所未有的灵活性,使其能够根据特定的业务需求、行业规范或伦理标准,在模型基础上应用并持续迭代自定义的安全策略。通过这种方式,开发者可以针对不同应用场景的合规性要求,构建起更加精准且具备动态适应能力的防御体系。 此举不仅显著降低了构建高性能安全分类器的技术门槛,更在开发者生态中引入了一种去中心化的安全治理思路。随着模型权重的开放,人工智能的安全边界将不再仅仅由单一厂商定义,而是通过开发者社区的持续优化与策略迭代,共同构建起一个更加多元、稳固且具有韧性的安全屏障。 🔗 来源:OpenAI
    • 0 篇意见
    • 22 次查看
  24. z2
    随着人工智能向更深层次的人机交互迈进,如何界定并处理“敏感对话”已成为大模型安全领域的核心命题。近日,一份关于 GPT-5 系统卡片的增补文档正式披露,详细阐述了该模型在处理复杂、敏感语境方面的技术演进与安全改进。 本次增补的核心在于引入了一系列全新的评估基准,旨在应对日益复杂的社会伦理挑战。文档重点提到了三个关键维度的能力提升:情感依赖、心理健康以及越狱防御能力。这意味着,GPT-5 的安全防御逻辑正在从传统的“指令遵循”转向更为深层的“语境理解与风险识别”。 在情感依赖维度,新的基准测试旨在评估模型是否会诱导用户产生过度拟人化的情感投射,从而降低用户对 AI 产生病理性依赖的风险。而在心理健康领域,系统能力的增强意味着模型能够更敏锐地捕捉对话中的心理危机信号,并提供符合伦理规范的引导。此外,针对日益严峻的“越狱”攻击,GPT-5 也展示了更强的对抗性防御水平。 这一进展标志着 AI 安全研究正进入一个新的阶段:不仅要防御恶意指令,更要应对人类情感与心理交互带来的深层伦理风险。对于开发者与监管者而言,这无疑为构建更加安全、负责任的通用人工智能(AGI)提供了重要的技术参考。 🔗 来源
    • 0 篇意见
    • 23 次查看
Background Picker
Customize Layout

我的帐户

导航

搜索

搜索

配置浏览器推送通知

Chrome (安卓)
  1. 轻敲地址栏旁的锁形图标。
  2. 轻敲权限 → 通知。
  3. 调整你的偏好。
Chrome (台式电脑)
  1. 点击地址栏中的挂锁图标。
  2. 选择网站设置。
  3. 找到通知选项,并调整你的偏好。