Industry News 行业资讯
Breaking news and updates from global AI giants. | 追踪全球 AI 巨头的最新动态。
1844篇记录在此类别
-
2026年3月16日,在央视3·15晚会中,AI大模型的“投毒”现象引发了公众对生成式人工智能推荐内容可信度的关注。这一问题引起了广泛讨论,尤其是围绕一种名为GEO(Generative Engine Optimization)的技术展开。 所谓GEO,是SEO(搜索引擎优化)在生成式AI时代的发展延伸。不同于传统SEO追求点击量和排名,GEO的核心在于提高品牌或产品在AI生成的回答中被直接引用的概率。通过语义深度、数据支持和权威来源等策略,企业可以提升自身内容被AI采纳的几率。 具体来说,GEO优化通常涉及两个方面:内容优化和技术优化。前者侧重于提供符合AI偏好且易于引用的信息;后者则通过结构化标注等方式确保AI能够有效抓取并理解这些信息。例如,在官网或信息发布渠道中添加Schema标签等技术手段,使大模型更高效地解析和解释品牌信息。 GEO的操作流程通常包括三个步骤:首先,确定用户常问的问题;其次,撰写针对AI偏好的内容;最后,将这些内容投放到高权重的AI抓取渠道,并进行技术和结构化优化。 随着生成式AI逐渐成为新的信息入口,GEO已经成为企业争夺AI流量的重要手段。据统计,202
- 0 篇意见
- 25 次查看
-
近年来,人工智能技术的发展为多个领域带来了革命性的变化。特别是在数学和逻辑学的交叉学科中,生成语言模型的应用正逐渐展现出其巨大潜力。本文将深入探讨生成语言模型如何应用于自动化定理证明,并分析这一技术对科技财经领域的潜在影响。 一、引言 定理证明是数学研究中的一个重要环节,通常需要深厚的理论知识和复杂的逻辑推理能力。传统的人工定理证明方法耗时长且容易出错。近年来,随着生成语言模型技术的进步,这一难题有了新的解决方案。 二、生成语言模型概述 生成语言模型是一种能够根据给定的文本或语境自动生成自然语言文本的技术。这类模型通常基于深度学习框架,并通过大量的训练数据进行学习,从而具备强大的语义理解和生成能力。 三、生成语言模型在自动定理证明中的应用 1. **知识表示** 生成语言模型能够将数学命题转化为可处理的形式。例如,可以使用自然语言描述的数学问题作为输入,经过模型转化后成为机器可以直接理解和处理的知识表示。 2. **推理过程模拟** 通过构建和训练适合于定理证明任务的语言模型,可以在一定程度上模拟人类进行逻辑推理的过程。这些模型能够识别并生成一系列有效的推理步骤,从而帮助验证数学命题的
- 0 篇意见
- 25 次查看
-
/* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
- 0 篇意见
- 35 次查看
-
/* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
- 0 篇意见
- 34 次查看
-
/* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
- 0 篇意见
- 37 次查看
-
/* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
- 0 篇意见
- 36 次查看
-
随着一系列关于ChatGPT及其母公司OpenAI的争议不断升级,许多用户开始转投Anthropic公司开发的Claude。转折点出现在Anthropic拒绝国防部使用其AI模型进行大规模国内监控或完全自主武器后,美国总统特朗普随即下令所有联邦机构停止使用Anthropic的产品,并称该公司为供应链威胁。 在这样的背景下,Claude在美国苹果应用商店的应用程序免费排行榜上迅速攀升至首位,超越了ChatGPT。根据Anthropic的数据,日活跃用户数创下历史新高,自1月份以来免费用户的增长超过了60%,付费订阅者数量更是翻了一番。 对于许多用户来说,这些争议让Claude成为了ChatGPT的有力替代选项之一。如果您正在考虑切换到Claude,以下指南将帮助您顺利迁移数据并关闭ChatGPT账户。 首先,确保您的数据能够转移至Claude。在开始新的对话时,您可以使用提示:“这里有一些重要的背景信息,请记住这些内容。请更新关于我的记忆。”然后直接粘贴您希望保留的信息或总结。 对于导出的聊天记录文件,不要直接粘贴原始日志。相反,可以提出类似于“请查阅并总结我的关键偏好”
- 0 篇意见
- 33 次查看
-
近日,阿里巴巴达摩院的研究团队取得了一项重要进展,通过一种可扩展且任务无关的方法,在一系列多样化的语言任务中获得了最新的研究成果。这一成就不仅展示了结合有监督和无监督学习方法的有效性,还为未来在更大规模、更广泛数据集上应用此方法提供了新的研究方向。 阿里巴巴达摩院的研究团队开发了一套系统,该系统巧妙地融合了两个现有的技术理念:transformers 和 无监督预训练。这一创新性的组合不仅证明了将有监督学习与无监督预训练相结合的有效性,而且为语言理解和处理领域的研究开辟了新的道路。 在具体的应用场景中,阿里巴巴达摩院的这项研究成果已经在多个任务上取得了卓越的成绩,包括但不限于文本生成、情感分析和机器翻译等。这些结果表明,通过无监督学习预先训练的语言模型,在面对多样化的语言任务时展现出更强大的泛化能力和更高的准确性。 值得一提的是,阿里巴巴达摩院决定将这一成果开源,希望进一步激发学术界和工业界的兴趣与参与。研究团队表示:“我们希望通过发布这项技术,鼓励更多的人投入到无监督学习与有监督学习相结合的研究中来,并期待未来能在这个领域取得更多的突破。” 这项研究成果不仅体现了阿里
- 0 篇意见
- 31 次查看
-
申请EMEA青年福祉基金,这是一个总额为50万欧元的项目,旨在资助非政府组织和研究者在人工智能时代推动青少年的安全与福祉。 该基金重点关注如何利用科技手段保护青少年权益、促进其健康成长,并致力于探索新兴技术对青少年心理及社会影响的研究。 申请截止日期和具体详情请访问官方网站或联系主办方获取更多信息。 🔗 来源:EMEA Youth & Wellbeing Grant (AI 严选)
- 0 篇意见
- 47 次查看
-
在本周末举行的巅峰对决中,人工智能领域再次向人类竞技的极限发起了震撼挑战。OpenAI Five 创造了电竞史上前所未有的壮举,在连续两场比赛中成功击败了 Dota 2 现任世界冠军战队 OG。这不仅是一场单纯的比赛胜利,更是人工智能从实验室的封闭环境走向全球公开竞技舞台的一个关键转折点。 回顾人工智能在电竞领域的进击之路,虽然 DeepMind 的 AlphaStar 以及 OpenAI Five 此前都在私下的训练环境或非公开测试中展现过击败顶尖职业选手的实力,但在充满变数、实时交互且具备极高观赏性的公开直播赛场上,AI 往往难以经受住人类职业选手临场应变与复杂战术博弈的考验。而此次,OpenAI Five 在全球观众的实时注视下,成功打破了这一天花板,成为首个在公开直播赛场击败职业电竞选手的 AI 智能体。 这一成就的深层意义在于,它证明了强化学习技术在应对具有高度复杂性、非完全信息以及多智能体协同任务时的卓越能力。Dota 2 极其复杂的博弈逻辑与瞬息万变的战场局势,为 AI 的决策能力设立了极高的门槛。OpenAI Five 的胜利,预示着人工智能在处理复杂、动态且高压力的决
- 0 篇意见
- 66 次查看
-
随着大量人工智能数据中心接入国家电网,消费者电价普遍攀升,平均价格上涨了超过6%。这使得在即将举行的秋季选举中,现有科技巨头的形象受到了一定影响。美国总统唐纳德·特朗普在其国情咨文中提到了这个问题:“我们要求主要的科技公司承担起为自身电力需求提供保障的责任。他们可以建设自己的发电厂作为工厂的一部分,从而避免电价上涨。” 这些大型云计算服务商已经在近期公开承诺通过自建电源、支付更高电费或两者并用等方式来解决问题,以缓解数据中心扩张带来的负面形象问题,并试图赢得公众的支持。1月11日,微软宣布其政策“确保向数据中心供电的电费不会转嫁给居民客户”。1月26日,OpenAI 称将“自行承担运营成本,不增加您家中的能源费用”。2月11日,Anthropic 也作出同样的承诺,“覆盖由我们数据中心导致的消费者面临的电价上涨”。昨日,谷歌宣布计划在明尼苏达州建设世界上最大的电池项目以支持其数据中心。 这些承诺的实际意义以及谁来决定哪个数据中心需要承担哪些价格上涨等问题仍不明朗。白宫尚未公布提议的声明文本。“与科技巨头之间的握手协议不足以解决问题。”亚利桑那州民主党参议员马克·凯利在社交媒体上
- 0 篇意见
- 38 次查看
-
全球已经有超过100万家企业客户在使用OpenAI。从医疗健康、生命科学到金融服务等领域,ChatGPT和我们的API正推动着一个充满智能的、由人工智能驱动的新时代。 🔗 来源:1 million business customers putting AI to work (AI 严选)
- 0 篇意见
- 37 次查看
-
全球范围内,已有超过一百万的用户借助OpenAI的力量,赋能其团队,并开启新的机遇。 本文着重介绍了PayPal、维珍航空、BBVA、思科、莫德纳和Canva等公司如何通过人工智能技术改变工作方式。这些公司的成功案例展示了AI如何为企业带来创新与变革。 🔗 来源:One in a million: celebrating the customers shaping AI’s future (AI 严选)
- 0 篇意见
- 44 次查看
-
OpenAI 近期推出了一套全新的评估框架与评估套件,旨在提升“思维链”的可监控性。该研究通过在 24 个不同环境下进行的 13 项深度评估,为理解大型语言模型的内部运作机制提供了关键证据。 研究的核心发现指出,相较于仅对模型的最终输出进行监测,深入监控模型的内部推理过程能显著提升监控效能。随着人工智能系统能力的不断演进,这一发现为构建大规模、可扩展的控制机制提供了一条极具前景的技术路径,对于确保未来高智能系统的安全性具有深远意义。 🔗 来源:OpenAI
- 0 篇意见
- 23 次查看
-
近日,国家互联网信息办公室等五部门联合发布了《人工智能拟人化互动服务管理暂行办法》,这一政策的出台标志着我国对人工智能拟人化交互领域的监管正式进入了精细化、制度化的新阶段。该办法的核心逻辑在于:在推动算法、框架、芯片等底层技术自主创新的同时,通过建立健全的规范体系,为拟人化互动服务的健康发展划定安全边界。 在安全治理维度,新规强调了“全生命周期”的管理理念。监管部门明确要求,拟人化互动服务提供者必须承担起安全主体责任,确保安全措施与服务功能的部署、运行、升级及终止等各个阶段实现同步。这意味着,安全不再仅仅是事后补救的“补丁”,而必须深度嵌入到技术研发与运营的每一个环节中,通过持续的监测与风险评估,实现对系统偏差及安全事件的实时化处置。 数据安全与用户权益保护是本次新规的两大核心支柱。在数据层面,办法对训练数据的管理提出了更高标准,强调了数据的透明度、可靠性与安全性,并严令禁止在未经用户明确同意或法律另有规定的情况下,向第三方提供用户交互数据,从源头上遏制了数据滥用的风险。在用户权益层面,新规赋予了用户更强的“掌控权”,包括个人信息保护、交互数据复制与删除的权利,以及便捷的服务退出机
- 0 篇意见
- 69 次查看
-
在人工智能技术向高度拟人化迈进的关键节点,我国监管层再次释放了强化治理的明确信号。近日,国家网信办等五部门联合公布了《人工智能拟人化互动服务管理暂验办法》,这一举措不仅是对现有AI监管框架的有力补充,更是针对生成式AI在情感模拟、身份伪装等领域潜在风险的精准治理。 随着大模型技术在语音、视觉及交互逻辑上的深度演进,AI正逐渐具备“拟人”的表象。然而,这种技术的“拟人化”特征也伴随着巨大的伦理挑战:如何防止AI通过模拟人类情感进行欺诈?如何界定虚拟数字人与真实身份的边界?新规通过确立明确的标识义务与准入标准,试图在技术创新的“加速器”与社会安全的“刹车片”之间寻找动态平衡,确保用户能够清晰辨别交互对象的真实属性。 观察当前的科技与金融生态,可以发现一种监管逻辑的协同性。上交所近期针对证券异常交易行为采取的自律监管措施,以及对高溢价基金和退市风险股票的严密监控,与互联网领域的算法治理互为表里,共同构成了对市场秩序的立体化守护。这种监管环境的升级,正倒逼科技企业在追求技术高度的同时,必须重新审视其合规成本与社会责任。 从欣旺达深度融入全球新能源供应链的产业实践,到GitHub上引发争议的AI
- 0 篇意见
- 69 次查看
-
随着全球人工智能技术的爆发式增长,监管的步伐也正以前所未有的速度加快。欧盟《人工智能法案》的推出,标志着全球首个全面监管人工智能领域的法律框架正式进入落地实施阶段。对于在全球范围内从事人工智能研发与应用的机构而言,这不仅是一场法律合规的严峻挑战,更是重塑全球行业标准的重要契机。 本文将为您呈现一份关于该法案的初步深度概览。我们将重点梳理法案中即将到来的关键合规节点与监管要求,旨在帮助业界企业预判监管压力。特别是在针对“禁用类人工智能应用”与“高风险人工智能应用”的界定上,我们将进行细致的剖析,以揭示这些分类如何直接影响人工智能提供者与部署者的业务逻辑、技术路径及供应链管理。 理解法案中的风险分级制度,是企业制定长期战略的核心。通过对禁止性用途与高风险场景的深入研究,开发者与使用者能够更有效地评估技术合规性,从而在日益严苛的监管环境下,确保技术创新与法律合规之间的动态平衡。 🔗 来源:https://openai.com/global-affairs/a-primer-on-the-eu-ai-act
- 0 篇意见
- 17 次查看
-
随着人工智能领域竞争进入白热化,一份关于 GPT-5.3 “即时系统卡”的泄露文档引发了全球科技界的震动。这不仅仅是一次版本的简单迭代,更预示着大语言模型正从传统的“离线推理”向高度敏捷的“实时交互”进行跨越式的技术转型。 根据这份系统卡披露的核心参数,GPT-5.3 的核心突破在于其全新的“瞬时推理引擎”。通过对注意力机制计算密度的深度优化,该模型在处理超长上下文时,能够实现近乎零延迟的响应速度。这种“即时性”的提升意味着 AI 代理(AI Agents)将具备更强的实时环境感知能力,能够在毫秒级的时间窗口内完成从感知到决策的闭环。 在技术架构层面,GPT-5.3 引入了更为紧凑的原生多模态融合架构。不同于以往需要分步处理文本、图像与音频的逻辑流,新的系统卡显示,该模型实现了多模态特征在底层计算层面的高度同步。这种深度的模态集成,为实现具备“全感官”能力的智能体提供了技术支撑,使得视觉信号与语言逻辑的交互不再存在明显的时滞。 行业观察人士指出,GPT-5.3 的出现将彻底重塑人机交互的边界。如果“即时性”能够如文档所述般大规模落地,那么现有的智能语音助手、自动驾驶决策系统以及实时翻译
- 0 篇意见
- 21 次查看
-
在本论文中,我们探讨了发布GPT-OSS时可能面临的最坏情况下前沿风险。我们引入了一种恶意微调(MFT)的方法,通过将GPT-OSS微调至在生物学和网络安全领域具有最大能力来尝试激发其最大程度的能力。 🔗 来源:Estimating worst case frontier risks of open weight LLMs (AI 严选)
- 0 篇意见
- 40 次查看
-
/* 默认白昼模式:深灰字 */ .aibing-content { font-family: -apple-system, BlinkMacSystemFont, "Microsoft YaHei", sans-serif; line-height: 1.8; font-size: 16px; color: #1f1f1f; /* 默认深色 */ } .aibing-content h2 { margin: 30px 0 15px; font-weight: 700; border-left: 4px solid #007bff; padding-left: 10px; color: inherit; /* 跟随父级 */ } .aibing-content a { colo
- 0 篇意见
- 36 次查看
-
OpenAI 的最新研究表明,为何语言模型会产生幻觉。这项发现展示了如何通过改进评估来增强人工智能的可靠性和真实性,并确保其安全。 🔗 来源:Why language models hallucinate (AI 严选)
- 0 篇意见
- 38 次查看
-
人工智能的下一个前沿阵地,其核心命题已不再仅仅局限于模型能力的边界扩张,而在于技术使用权的民主化。如何打破技术壁垒,让尖端算法触达全球每一个角落,正成为衡量技术进步的关键尺度。 我们始终秉持着一个核心使命:致力于将人工智能技术交到尽可能多的人手中,这种对技术普惠的追求,正是驱动我们不断探索深度的根本动力。 随着今天性能最为强大的开放权重模型的正式发布,我们迈出了具有里程碑意义的一步。这一进展将使先进的人工智能技术变得更加开放、灵活,并打破地理与资源的限制,真正实现全球范围内的技术可及性。 🔗 来源:https://openai.com/global-affairs/open-weights-and-ai-for-all
- 0 篇意见
- 22 次查看
-
在大语言模型(LLM)迈向通用人工智能(AGical)的征途中,“幻觉”问题始终是悬在开发者与用户头上的达摩克利斯之剑。近日,OpenAI发布的一项深度研究,为理解并解决这一顽疾提供了全新的科学视角。 这项研究深入探讨了语言模型产生虚假信息的底层逻辑,指出幻觉并非单纯的随机错误,而是模型在概率预测机制与知识边界模糊地带的必然产物。研究的核心发现在于,幻觉的发生与模型在处理复杂逻辑时的评估偏差密切相关。 更具深远意义的是,OpenAI的研究强调了评估范式升级的重要性。研究表明,通过构建更为精密且多维度的评估体系,可以有效识别并抑制模型在生成过程中的逻辑偏差。这种从“规模驱动”向“评估驱动”的思维转变,不仅能显著提升AI在面对复杂指令时的诚实度,更是增强模型安全性与可靠性的关键所在,为构建一个更加安全、可信的智能时代奠定了技术基础。 🔗 来源:OpenAI
- 0 篇意见
- 22 次查看
-
长期以来,深度学习模型的“黑盒”特性一直是人工智能领域面临的核心挑战之一。尽管模型在处理复杂任务时表现卓越,但其决策过程往往缺乏透明度,使得人类难以理解其背后的逻辑。 近日,一项全新的研究方法为这一难题提供了突破性的思路:通过让人工智能模型之间进行“教学”来提升模型的可解释性。研究人员设计了一种创新的交互机制,旨在鼓励人工智能模型之间通过示例进行知识传递。与传统的自动化数据训练不同,这种方法的核心在于引入了“教学”的概念。 该方法能够自动从海量数据中筛选出最具信息量的样本,用以定义和传达特定的概念。例如,在教授“狗”这一概念时,算法会自动挑选出那些最具代表性、最能体现特征的图像作为教学素材。这种方法的精妙之处在于,所选用的教学示例不仅能有效提升人工智能的学习效率,同时还具备人类可理解的直观性。这意味着,在模型学习新知识的过程中,人类也可以通过这些精选的示例,直观地观察到模型是如何构建其认知逻辑的。实验结果表明,这种“互教互学”的模式在提升人工智能学习效率方面表现出了显著的成效。 🔗 来源:https://openai.com/index/interpretable-machine-l
- 0 篇意见
- 23 次查看