文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 错别字 (1 points, 一般) by 陈少举 在 2024年11月02日23时42分 星期六 评论到 Linus Torvalds 用电动汽车取代了燃油汽车
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年09月25日21时26分 星期三 评论到 美国汽车召回愈五分之一是修复软件
- Guo farm accumulated wealth, the ants lost all the (1 points, 一般) by solidot1727141937 在 2024年09月24日09时39分 星期二 评论到 日本科学家用猫制作 iPS 细胞
- 但是又快又便宜 (1 points, 一般) by Craynic 在 2024年09月09日13时12分 星期一 评论到 澳大利亚政府研究发现 AI 在概述上的表现比人类差
- (1 points, 一般) by gashero 在 2024年09月04日12时41分 星期三 评论到 众多高校撤销外语专业
- 让他们贴支付宝或微信捐款的方式 (1 points, 一般) by solidot1725066425 在 2024年08月31日09时08分 星期六 评论到 KDE 将每年通过桌面通知请求一次捐赠
- 更现代? (1 points, 一般) by Craynic 在 2024年08月28日13时15分 星期三 评论到 微软撤回了弃用控制面板的声明
- 对延迟退休的错误理解 (1 points, 一般) by solidot1723550599 在 2024年08月13日20时09分 星期二 评论到 中国人 50 岁后还能健康工作多少年?
- (1 points, 一般) by solidot1723275683 在 2024年08月10日15时45分 星期六 评论到 甜味剂赤藻糖醇可能增加心血管疾病风险
- 不值得信任google (1 points, 一般) by solidot1722426862 在 2024年07月31日19时56分 星期三 评论到 Chrome 服务故障导致部分用户无法访问保存的密码
苏黎世联邦理工学院研究人员报告,利用特别训练过的图像识别模型,AI 机器人能以 100% 成功率破解 ReCAPTCHA v2。Google 的 reCAPTCHA v2 会展示一组街景网格,要求用户识别哪些图像包含自行车、人行横道、楼梯或交通信号灯。Google 已经逐步淘汰 reCAPTCHA v2 改用 reCAPTCHA v3,通过分析用户交互识别人和机器人,不再需要用户接受繁琐的挑战。然而互联网上仍然有数百万个网站使用 reCAPTCHA v2,而使用 reCAPTCHA v3 的网站还会将 reCAPTCHA v2 作为后备方案。研究人员利用了开源模型 YOLO ("You Only Look Once") 的微调版本。他们表示在成功率达到 100% 之后我们正进入后 reCAPTCHA 时代。
游戏公司纷纷拥抱生成式 AI,但任天堂的传奇设计师宫本茂表示,该公司会走不同的方向。宫本茂表示这不是为了走反方向而走反方向,这是为了尝试找出任天堂的特别之处。有很多关于 AI 的讨论。每个人都朝着相同的方向前进,但任天堂宁愿走不同的方向。任天堂总裁古川俊太郎在 7 月回答投资者提问时也对 AI 的使用表达了模糊的立场,称生成式 AI 可以创造性的使用,但也可能引发知识产权方面的问题。
根据发表在《自然》期刊上的一项研究,参数规模更大的 AI 聊天机器人倾向于更可能胡说八道。西班牙 Valencian Research Institute for Artificial Intelligence 的研究员分析了大模型的幻觉,观察随着模型参数规模愈来愈大其幻觉或错误是如何变化的。研究团队发现,更大更精调的大模型更精确,但也更不可靠。它们产生的错误答案比例略有增加。原因是更大参数规模的模型倾向于更不可能回避问题,比如说不知道答案或改变话题。研究人员说,结果是大模型尝试回答所有问题,生成了更多正确的答案以及更多错误的答案。大模型愈来愈擅长于伪装成无所不知。用户可能会高估 AI 聊天机器人的能力。研究人员分析了三种模型家族:OpenAI 的 GPT、Meta 的 LLaMA 和 BigScience 的开源模型 BLOOM。
微软透露了能修正 AI 幻觉的新工具 Correction。幻觉是大模型固有的缺陷,Correction 主要是通过交叉验证去修正幻觉,它并不能从根本上解决幻觉问题。Correction 首先标记潜在有错误的文本,然后将其与事实来源进行比较进行事实核查。Correction 作为 Azure AI Content Safety API 的一部分提供给用户,能与任何文本生成模型一起使用,包括 Meta 的 Llama 和 OpenAI 的 GPT-4o。华盛顿大学的博士生 Os Keyes 认为 Correction 可能会减少部分问题,但也会产生新的问题,因为它的幻觉检测库也会产生幻觉。
科技巨头竞相以高价聘请最顶尖的 AI 人才,但 Google 付出的代价令所有人望尘莫及。Noam Shazeer 是 2017 年开创性的神经网络架构 Transformer 论文《Attention Is All You Need》的合作者,在 Google 拒绝发布他开发的聊天机器人后,他于 2021 年离开公司创办了 Character.AI。当 Character.AI 陷入困境时,前雇主突然现身。Google 开出了 27 亿美元的支票,除了授权 Character.AI 技术外,交易的一部分是让 Shazeer 同意重新为其工作。在公司内部,Shazeer 的回归被广泛视为是公司同意支付 27 亿美元授权费的主要原因。Shazeer 现在是搜索巨人负责 Gemini 下个版本的三人之一。Google 拒绝让 Shazeer 接受采访。
传奇电影人 James Cameron 加入了 AI 创业公司 Stability AI 的董事会。CEO Prem Akkaraju 表示,James Cameron 生活在未来,等待我们追赶上。Stability AI 的使命是改变下个世纪的视觉媒体,为创作者提供全栈 AI 管线,让他们梦想成真。James Cameron 将有助于它实现这一使命。Stability AI 董事会的其它成员包括了 Greycroft 联合创始人 Dana Settle、Coatue Management COO Colin Bryant,以及担任执行主席的前 Facebook 总裁 Sean Parker。Stability AI 的文本图像模型 Stable Diffusion 是 Hugging Face 上最受欢迎的图像模型,下载量愈 1.5 亿次。
OpenAI CEO Sam Altman 在个人博客上发表文章,阐述了对 AI 未来的愿景,他认为我们距离超级 AI 可能只有几千日。作为一名利益相关者,他的预言可能类似马斯克,更多是为了推销自己的公司。一千天大约是 2.7 年,几千天也就是 3-27 年之间。Altman 称:经过数千年的科学发现和技术进步的积累,我们已经找到了如何溶化沙子,添加杂质,以令人惊讶的精度在极小的尺度上排列成计算机芯片,给它们通电,最终得到能够创造日益强大的人工智能的系统。这可能是迄今为止历史上最重要的事实。我们有可能在几千天内实现超级智能!可能会需要更长的时间,但我相信我们最终会实现这一目标。可以用六个字来概括:深度学习有效。用一句话来说:深度学习取得成功,随着规模的扩大,可以预见它会变得更好,我们为此投入了更多资源。
Constellation Energy 周五宣布,五年前关闭的三里岛核电站 1 号机组预计将于 2028 年重启,具体时间取决于 Nuclear Regulatory Commission 的批准。核电站将向微软数据中心供电驱动其 AI 服务。Constellation 表示,1 号机组反应堆的重启将增加 3,400 个直接和间接工作岗位,为电网增加愈 800 MW 的电力,为核电厂所在的宾州增加 160 亿美元 GDP。三里岛以美国历史上最严重核事故知名,2 号机组自 1979 年以来一直处于关闭状态。
网信办公布了《人工智能生成合成内容标识办法(征求意见稿)》,要求平台和服务提供者对 AI 生成内容明确标识,鼓励添加数字水印等形式的隐式标识。。《意见稿》要求,
(一)在文本的起始、末尾、中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;
(二)在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识;
(三)在图片的适当位置添加显著的提示标识;
(四)在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识;
(五)呈现虚拟场景时,应当在起始画面的适当位置添加显著的提示标识,可在虚拟场景持续服务过程中的适当位置添加显著的提示标识;
(六)其他生成合成服务场景应当根据自身应用特点添加具有显著提示效果的显式标识。
服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。
(二)在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识;
(三)在图片的适当位置添加显著的提示标识;
(四)在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识;
(五)呈现虚拟场景时,应当在起始画面的适当位置添加显著的提示标识,可在虚拟场景持续服务过程中的适当位置添加显著的提示标识;
(六)其他生成合成服务场景应当根据自身应用特点添加具有显著提示效果的显式标识。
服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。
随着大模型的日益普及,批判性地检查其固有的局限性也日益重要。幻觉是大模型最常见的问题之一,我们是否可能通过改进大模型去减少或阻止幻觉的产生?United We Care 的三名研究人员在预印本平台 arXiv 上发表研究报告,他们从数学上证明,幻觉是不可避免地,也是不可能消除的。幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。
Google 开始向所有 Android 用户免费提供 AI 语音聊天功能 Gemini Live。用户需要下载 Gemini 移动应用,需要有个人 Google 账号,现阶段不会提供给用工作或教育账号登录的用户,年龄需要 18 岁以上,第一语言需要是英语。Google 表示,利用 Gemini Live 用户可以大声提问,可以在 AI 回应时打断其回答。OpenAI 此前在发布 GPT-4o 时也推出了语音聊天,但只提供给少数用户,专家猜测可能是语音聊天需要的计算资源太多。
AMD 高级副总裁兼计算图形业务组总经理 Jack Huynh 在接受采访时谈论了该公司下一代上采样技术 FidelityFX Super Resolution 4.0(或 FSR4)将是完全由 AI 驱动,类似英伟达的 DLSS。Jack Huynh 以掌机华硕 ROG Ally 或联想 Legion Go 为例说,这些掌机的最大问题是电池续航时间过短,你想要玩 3 个小时的悟空,但电池只够你玩不到一个小时,帧生成和帧插值技术有助于延长电池续航时间。FSR 上采样技术此前的版本如 FSR2 和 FSR3 是基于分析和过滤器,下一代将是完全基于 AI,AMD 工程团队已在该项目上投入了近一年时间。AMD 的首要目标是最大程度的提高电池续航。
一项研究发现,与训练有素的 AI 聊天机器人进行对话有助于减少阴谋论信仰。研究调查了 GPT-4 Turbo 等大模型 (LLM) 是否能利用其巨大的信息获取能力以及使用直接针对相信者提出的对具体证据的定制反驳来有效地揭穿阴谋论。在一系列涵盖 2190 名相信阴谋论者的实验中,参与者与 LLM 进行了几次个性化互动,分享了他们的阴谋论信仰以及他们认为的支持这些信仰的证据。LLM 也会类似地通过定制的、事实的和基于证据的反驳直接驳斥这些说法。一位受雇评估 GPT-4 Turbo 所作声明准确性的专业事实核查员报告说,在这些声明中,99.2% 被评为“真实”,0.8% 被评为“误导”,0 被评为“虚假”;并且没有发现任何声明包含自由派或保守派偏见。研究人员发现,由 AI 驱动的对话能使参与者的被误导的信念平均减少 20%。这种效应持续了至少 2 个月,并且在各种不相关的阴谋论以及各个人口统计类别中均被观察到。这些发现挑战了这样一种观念,即某人一旦采信了阴谋论,证据和论据就无效了。他们还质疑了社会-心理学理论,该理论将心理需求和动机作为阴谋论信念的主要驱动因素。
OpenAI 发布了新 AI 模型 o1。其中 o 代表 Orion,o1 是 OpenAI 下一代推理模型中的第一个,它比旧模型更擅长推理,价格也更贵,速度也更慢。ChatGPT Plus 和团队用户即日起便可以访问 o1 预览版和 o1-mini,而企业和教育用户将在下周初获得访问权限。OpenAI 表示,它计划让 ChatGPT 的所有免费用户都能访问 o1-mini,但尚未确定发布日期。对开发者来说,访问 o1 的成本比之前要高出很多:通过 API 使用 o1 预览版,输入每百万 token 要收费 15 美元,输出每百万收费 60 美元。相比之下,GPT-4o 的百万 token 输入收费只有 5 美元,输出为 15 美元。OpenAI 没有透露 o1 太多细节。
Google 联合创始人和前 Alphabet 总裁 Sergey Brin 在 All-In Summit of AI 上首次公开确认,他几乎每天都会回 Google 总部工作,因为他对 AI 最近取得的进展非常兴奋,不想要错过。Brin 称 AI 是一个快速发展的庞大领域,能为人类带来巨大的价值。他还认为训练更强大的 AI 模型并不需要相应的更大规模的算力,过去几年 AI 算法的改进所带来的进步超过了投入到 AI 模型的算力的增长幅度。
法国 AI 创业公司 Mistral AI 发布了其首个多模模型 Pixtral 12B,具有语言和视觉处理能力,它能识别图像但不能生成图像。用户可通过 Hugging Face 和 GitHub 访问其源代码,源码采用 Apache 2.0 许可,用户可以不受限制的下载、微调和使用。Pixtral 12B 有 120 亿参数,模型大小 24GB。它是基于文本模型 Nemo 12B,应该能执行为图像添加文字描述和计算照片中物体数量等任务。Mistral 没有披露使用了哪些图像去训练模型。
《金融时报》报道,英伟达 AI 芯片在中国的租赁费用比美国便宜。一台基本配置为 6 个英伟达 A100 芯片的服务器,四家小型云提供商收取的费用为每小时约 6 美元,相比下美国小型云提供商是每小时 10 美元。业内人士表示这表明中国的英伟达芯片供应充足。美国在 2022 年秋季开始禁止英伟达向中国出口 A100 芯片,从未允许出口 H100 芯片。但业内人士表示 A100 和 H100 在中国社交媒体和电商平台上都能公开出售,价格略高于国外价格。阿里巴巴和字节跳动等大型云服务商对 A100 的租赁价格 2-4 倍于小型云服务商,折扣后的套餐价格与亚马逊 AWS 的价格相当,AWS 的收费为每小时 15-32 美元。一家中国创业公司创始人表示,大型公司需要考虑合规性,不能使用走私芯片,小型服务商则没有这么多顾虑。他估计中国境内有逾 10 万块 H100 芯片。一家小型云服务商负责人表示,国内的低成本可以抵消为购买走私芯片而支付的高价,他说工程师便宜,电力便宜,竞争激烈。
提供呼叫中心服务的 Alorica 推出了一款 AI 翻译工具,让公司员工能用 200 种不同语言与客户交谈。Alorica 不会裁员,它还在积极招聘。Alorica 等公司的经验表明,AI 不会成为人类的职业“杀手”,导致大规模失业。AI 可能会像蒸汽机、电力、互联网等技术突破一样,在消除部分工作的同时创造新的工作,使得人类的工作总体上效率更高,让工人、雇主和经济都从中受益。人们曾经以为,AI 聊天机器人将会取代客服,但这种情况目前并没有发生,可能永远也不会发生。白宫经济顾问委员会上月表示,他们发现几乎没有证据表明 AI 会对整体就业情况产生负面影响。目前科技行业的大规模裁员与 AI 几乎没有关联,科技巨头不是因为 AI 会节省资金或导致工作岗位不再需要而裁员的。
The Information 援引知情人士的消息报道,OpenAI 高管考虑对高级语言模型提供高级订阅服务,月费最高可能高达 2000 美元。OpenAI 的 ChatGPT 运营成本高昂,此举反映了支付大模型运营成本的担忧日益加剧。ChatGPT 目前的月订阅费为 20 美元,OpenAI 每年的订阅收入大约 20 亿美元。更先进的模型如专注于推理的 Strawberry 以及 Orion 可能需要额外的算力,可能会增加开支。
大模型能比人类更快的概述一篇长文,因此很多用户和企业尝试用它去概述冗长的文档以方便阅读。澳大利亚证券和投资委员会(ASIC)对此展开了研究,他们测试了开源大模型 Llama2-70B,发现它提供的概述相比人类提供的差很多。Llama2-70B 不是目前最先进的大模型,这一结果不太能够推广到最先进大模型的概述能力。尽管如此,研究表明,大型组织在将大模型的输出集成到现有工作流前需要三思。ASIC 发现,大模型生成的概述太笼统,还常常包含不正确的信息,语法正确,但幻觉无法避免。对比测试发现,AI 的平均得分为 7/15,而人类是 12.2/15。