文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 错别字 (1 points, 一般) by 陈少举 在 2024年11月02日23时42分 星期六 评论到 Linus Torvalds 用电动汽车取代了燃油汽车
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年09月25日21时26分 星期三 评论到 美国汽车召回愈五分之一是修复软件
- Guo farm accumulated wealth, the ants lost all the (1 points, 一般) by solidot1727141937 在 2024年09月24日09时39分 星期二 评论到 日本科学家用猫制作 iPS 细胞
- 但是又快又便宜 (1 points, 一般) by Craynic 在 2024年09月09日13时12分 星期一 评论到 澳大利亚政府研究发现 AI 在概述上的表现比人类差
- (1 points, 一般) by gashero 在 2024年09月04日12时41分 星期三 评论到 众多高校撤销外语专业
- 让他们贴支付宝或微信捐款的方式 (1 points, 一般) by solidot1725066425 在 2024年08月31日09时08分 星期六 评论到 KDE 将每年通过桌面通知请求一次捐赠
- 更现代? (1 points, 一般) by Craynic 在 2024年08月28日13时15分 星期三 评论到 微软撤回了弃用控制面板的声明
- 对延迟退休的错误理解 (1 points, 一般) by solidot1723550599 在 2024年08月13日20时09分 星期二 评论到 中国人 50 岁后还能健康工作多少年?
- (1 points, 一般) by solidot1723275683 在 2024年08月10日15时45分 星期六 评论到 甜味剂赤藻糖醇可能增加心血管疾病风险
- 不值得信任google (1 points, 一般) by solidot1722426862 在 2024年07月31日19时56分 星期三 评论到 Chrome 服务故障导致部分用户无法访问保存的密码
英国公共政策研究所创建了一个模型,分析了涵盖所有工作类型的 22,000 项任务,预测未来 3-5 年内,目前由人类——尤其是女性和年轻人——完成的任务有 59% 可能会受到 AI 的影响。在最坏的情况下可能会引发“就业的大灾难”,仅仅在英国就会有 800 万人失业。如何应对这种情况?有人提议推行基本收入 UBI。但 UBI 的钱从哪里来?他们认为 AI 企业会分享其收入,因为人类工作愈来愈少了,企业的利润和股息可以捐给有需要的人。很多人对此表示怀疑,认为历史告诉我们企业是不会这么做的,股东会拿走 100% 的利润。
为了解生成式 AI 对短篇小说创作的影响,伦敦大学学院等机构的研究人员招募了近 300 名志愿者作为“作家”,展开一项在线研究。这些志愿者并不是以创作为生的职业作家。研究人员评估了他们的先天创作力,然后将他们随机分为 3 组。所有志愿者被要求根据随机分配的公海探险、丛林探险和外星探险 3 个选题之一,创作一个 8 句话的小故事。3 组志愿者接受生成式 AI 辅助创作的程度不同。第一组为无 AI 的参照组;其他两组可选择利用 AI 获得一个 3 句话的初始创意,其中之一可选择最多获得 5 个由 AI 产生的创意。创作完成后,志愿者们被要求以新颖性、情感特征等标准对自己创作的故事自我评估。此外还有 600 名外部评审人员以相同标准来评估这些故事。研究显示,接受生成式 AI 辅助有助于创作更有创意、更有趣的故事,这在一开始被测定为先天缺乏创作力的志愿者中尤其明显。但从总体来看,相比参照组,AI 辅助组创作的故事看起来更相似。
财富管理和经纪行富瑞(Jefferies)的统计数据显示,自 2022 年底 ChatGPT 推出以来 27 只 AI 大盘股的股价上涨了 127%,市值增加了 10 万亿美元,但它们在 2025 年的收益预测只增长 25%。这意味着 AI 大盘股的增量市盈率高达 73 倍,表明投资者对整个行业的增长预期极其乐观。英伟达涨幅最大,其股价自 2022 年底以来上涨了 656%。尽管存在估值过高的迹象,但富瑞认为 AI 泡沫在短期内会继续扩大,因为资本支出计划到 2025 年仍然表现强劲,主要云服务商有充足的现金储备。
亚马逊向美国用户开放其购物聊天机器人 Rufus,用户可通过最新版本的 Amazon Shopping 应用尝试 Rufus。与其它 AI 聊天机器人不同的是,Rufus 训练数据集包括了其商品目录、客户评价、社区问答,以及抓取的来自 Web 的公开信息。亚马逊没有披露它抓取了哪些公开信息。用户可以让它推荐商品,或描述特定商品的功能,它还与用户的账号绑定,因此还能回答与所订购商品交付相关的信息。和其它 AI 聊天机器人类似,它给出的答案未必是正确的,需要用户交叉验证。
世界各地的宗教领袖等在日本广岛市开会讨论使用人工智能(AI)时的伦理问题。会议通过了成果文件,称“要求世界承诺 AI 只用于造福人类,而不是用来破坏和伤害生命”。文件指出,1945 年时的最尖端技术原子弹在广岛被投下而酿成重大悲剧,而在现代战争中,AI 技术被用在无人机等致命性自主武器系统上。文件强调了“国际社会应尽早对这一危险事态采取必要的措施”。
Meta A 的研究人员正在开发智能手机上运行的紧凑型大模型 MobileLLM。研究人员致力于优化参数规模低于 10 亿的大模型,相比下 OpenAI GPT-4 的参数规模据称超过 1 万亿。研究人员报告利用一系列新技术,MobileLLM 在基准测试任务上的表现比类似规模的模型改进了 2.7%-4.3%,3.5 亿参数规模的 MobileLLM 在某些任务的准确率与 70 亿参数规模的 LLaMA-2 模型相当。这意味着在特定任务上,紧凑型大模型能提供比更大规模大模型相似的能力,同时计算开销更低。
日本总务省发表的《信息通信白皮书》显示,日本只有 9.1% 的个人使用生成式 AI。这一比例与中国(56.3%)、美国(46.3%)、英国(39.8%)和德国(34.6%)存在较大差距。 当问及生成式 AI 的具体用途时,从“已在使用”的回答来看,最多的是“查询”(8.3%),其次是“对内容进行提炼和翻译”(5.9%)。在面向企业的问卷调查中,日企在业务中使用生成式 AI 的比例为 46.8%。低于美国(84.7%)、中国(84.4%)和德国(72.7%)。关于未来是否会使用,从“计划积极使用”来看,日本仅为 15.7%,低于中国(71.2%)、美国(46.3%)和德国(30.1%)。
过去几个月,主要比特币矿场更换了部分矿机,改为运行和训练 AI 的设备。这些公司认为,相比剧烈波动的加密货币行业,AI 训练能提供更稳定更安全的收入来源。摩根大通报告称,此举受到了股民们的欢迎,14 家比特币公司市值上涨了 22%。比特币挖矿利润丰厚,但波动性巨大,2022 年 Sam Bankman-Fried 和 Do Kwon 等人导致了市场崩溃,很多矿场因此关闭。幸存的矿场在今年重新获得了利润,但因为挖矿回报减半,而币值并没有因此出现大幅上涨,迫使矿场们寻求商业模式多元化,AI 训练成为榜单上的头号目标。AI 公司需要庞大的场地、廉价的能源和基础设施,而这些比特币矿场都有。它们向 AI 公司出租了场地,托管 GPU 和 ASIC 等 AI 训练芯片。
中国科学技术信息研究所和北京大学发表《2023 全球人工智能创新指数报告》,报告称去年中国 AI 顶级论文数量和专利授权均高于美国,但在综合能力上美国仍然领先于中国。在主要国家 AI 顶级论文数量占比上,中国占比 36.7%,美国占比 22.6%。在主要国家 AI 专利授权数量占比上,中国占比 34.7%,美国占比 32%。《报告》显示,2023 年产业界独立研发的机器学习模型达到 176 个,是学术界的 3.5 倍。近十年 GitHub 上人工智能开源项目总数持续增长,从 2013 年的 1.2 万个增加到 2023 年的约 190 万个。印度成为最大的开源项目来源国,每年贡献的人工智能开源项目数量占全球的比重从 2013 年的 3.1% 增长到 2023 年的 27.3%。
Google 研究人员在预印本平台 arXiv 上发表论文,指出通过在互联网上发布虚假内容,绝大多数生成式 AI 正在模糊真实性和欺骗性之间的界限。深度伪造和伪造证据是目前最盛行的滥用方式,其中大多数都有明显意图,旨在影响公众舆论、进行诈骗或欺诈活动。生成式 AI 日益先进,可随时使用,对使用者的技术要求非常低,它正在扭曲人们对社会政治现实或科学共识的集体理解。生成式 AI 非常擅长于大量制作虚假内容,这其实是它的特性而不是 bug,互联网正日益充斥着 AI 的垃圾。研究人员表示这种状况将考验人们辨别真假的能力。随着生成式 AI 内容的无处不在,部分人可能会将对其不利的证据解释为 AI 生成,转移举证责任。
过去 5 年,由于支撑 AI 系统的数据中心的扩张,Google 的温室气体排放量飙升了 48%,这让人们对其到 2030 年实现“净零”排放的承诺产生了怀疑。Google 在周二发布的年度环境报告中表示,这家硅谷公司 2023 年的污染总量达到 1430 万吨碳当量,比 2019 年的基准增长 48%,比去年增长 13%。Google 承认排放量飙升凸显了减排的挑战,表示 AI 对环境的影响是复杂且难以预测的。Google 首席可持续发展官 Kate Brandt 表示,该公司仍然致力于实现 2030 年零排放目标。但为了构建运行 AI 所需的基础设施,短期内排放还会继续增长。Google 称,其数据中心耗电量在 2023 年增长 17%,占全球数据中心电力消耗的 7-10%。数据中心在 2023 年的耗水量也比上一年增加了 17%。
巴西国家数据保护机构周二裁定,Meta 须停止使用该国用户数据训练其 AI 模型。Meta 此前更新隐私政策,声明将使用用户公开发表的帖子训练 AI 模型。巴西监管机构担心儿童与朋友和家人分享的个人数据可能会被以无法预料的方法对他们造成伤害。里约热内卢智库 Institute of Technology and Society 的 Ronaldo Lemos 认为,巴西此举可能会鼓励其它科技公司在使用个人数据方面维持不透明的状态,因为 Meta 是唯一一家提前通知使用个人数据训练 AI 的科技巨头,结果却因此受到严厉惩罚。Meta 收到通知后需要在五天内证明合规,否则每天面临 5 万雷亚尔的罚款。Meta 发言人对巴西的裁决表达了失望。
中国 AI 机器人 GeoGPT 在欧洲地球科学界引发了混乱,导致了欧洲地球科学联合会主席被解雇。GeoGPT 由阿里巴巴 CTO 王坚开发,基于该公司的 AI 模型 Qwen,使用了来自开源地质研究和数据集的数十亿单词进行了微调。部分科学家认为 GeoGPT 存在缺乏透明度、审查和侵权等严重问题。期刊出版商今年二月致函国际地质科学联合会(International Union of Geological Sciences,IUGS),称 GeoGPT 是非法基于未经授权使用的科学文献之上,且其答案没有引用来源,是不透明的。欧洲地球科学联合会(EGU)也收到了类似的投诉。EGU 主席是出生在俄罗斯、但已离开祖国几十年的 Irina Artemieva。她将投诉邮件转发给了中国地质大学的王成善院士,征求其意见,但忘记删除了投诉者的名字。5 月 EGU 开会解雇了 Artemieva,理由之一就是她忘记删除名字违反保密规定。
过去几个月,版权所有者对 OpenAI 及其主要投资者微软提起了多起侵权诉讼。微软 AI CEO Mustafa Suleyman 接受采访时对此表示,机器学习公司能抓取大部分在线内容,用其训练神经网络,因为这些内容本质上是“免费软件”。他说,对于已在开放 Web 上的内容,自 1990 年代以来其社会契约一直是合理使用(fair use),任何人都能拷贝,重新创作,再制作。它们就是免费软件。OpenAI 等 AI 公司正与主要版权所有者签署内容协议。换句话说,对于将内容发布在网络上的普通人,除非他们有能挑战微软或将微软拉到谈判桌上的律师,那么他们创作的内容就是“免费软件”。Suleyman 预测的未来是知识生产成本将降至零边际成本,信息经济学将发生根本性改变。
OpenAI 研究人员透露了一种新模型 CriticGPT,设计识别 GPT-4 所生成的代码中的错误。CriticGPT 使用了人类反馈中强化学习(Reinforcement Learning from Human Feedback 或 RLHF) 去增强 AI 系统,它作为 AI 助手帮助人类审查 ChatGPT 生成的代码。它分析 AI 生成的代码然后指出可能的错误,帮助人类更容易识别可能会忽视的 bug。研究人员通过故意在代码中加入 bug 去训练 CriticGPT 识别和标记代码中的各种 bug。
英国雷丁大学的研究人员在一项小规模的研究中,创建了 33 名 AI 学生,使用 ChatGPT 参加该校本科心理学学位的模块化考试。结果显示,AI 学生的成绩平均比人类高出半级。AI 递交的论文检出率只有 6%——94% 的情况下无法被人类识别。研究报告发表在《Plos One》期刊上。研究人员测试了大学第一年、第二年和第三年的模块考试,AI 在前两年的成绩超过了人类,但第三年的成绩人类本科生更好。这与 AI 在更抽象推理中面临困难的观点一致。
过去半年深陷困境的生成式 AI 公司 Stability AI 获得了新一轮投资,稳定了局面,将加速其文本图像生成产品的开发。Stability AI 新一轮的投资者包括风险投资公司 Greycroft 和 Coatue Management,以及前 Facebook 总裁 Sean Parker 和特效公司 WETA Digital 前 CEO Prem Akkaraju,以及前 Google CEO Eric Schmidt 和知名投资人 Robert Nelsen。Sean Parker 将担任 Stability AI 的执行主席,Akkaraju 将担任 CEO。自创始人 Emad Mostaque 于 3 月离职后,Stability AI 一直没有任命新 CEO,原因是投资者对其财务状况感到不满,它的财务状况非常糟糕,甚至难以支付云服务账单。
AI 研究人员表示,Meta 和微软等科技巨头称其 AI 模型是开源模型,但它们并没有披露模型底层技术的重要信息。荷兰 Radboud 大学语言科学家 Mark Dingemanse 表示,大公司正从宣称开源模型上受益,但与此同时试图尽可能少的披露信息。这种做法被称为“open-washing”。Dingemanse 指出,相比下资源更少的小型 AI 企业则表现更令人称赞。他和同事创建了一个最开放和最不开放模型排行榜。他们评估了 40 个声称开源或开放的大模型,根据代码和训练数据的可用性、文档以及模型易访问性等 14 个参数制定了排行榜。研究人员发现, Meta 的 Llama 以及 Google DeepMind 的 Gemma 虽然自称开源或开放,但实际上只是开放权重,外部研究人员可以访问和使用预训练模型,但无法检查或定制模型,也不知道模型如何针对特定任务进行微调。根据他们的排行榜,BigScience 的 BloomZ 是最开源开放的模型,其次是 Allen Institute for AI 的 OLMo,Mistral AI 的 Mistral 7B-Instruct。
字节跳动正与博通合作开发先进 AI 芯片,以在中美关系紧张的局势下获得充足的高端芯片供应。路透社援引知情人士的消息称,双方合作开发的是 5 纳米 ASIC 定制芯片,将满足美国的出口限制,由台积电代工。知情人士表示,台积电预计不会在今年内制造这种新芯片,它尚未进入流片试产阶段。字节跳动、博通以及台积电都未对此置评。为了发展 AI,字节跳动已经囤积了大量英伟达的 GPU,其中包括了美国第一轮制裁前可采购的 A100 和 H100 GPU,以及英伟达专为中国市场定制但被第二轮制裁限制的 A800 和 H800 芯片。字节跳动去年投入了 20 亿美元采购英伟达芯片。
苹果本月初宣布与 OpenAI 合作,在其语音助手 Siri 中整合 ChatGPT。但苹果不想过于依赖单一合作伙伴,它正在与 Facebook 的母公司 Meta 商讨在 AI 方面展开类似的合作。苹果不会为这方面的合作付费,而是提供分销,让 AI 合作伙伴销售增值付费订阅版本。苹果表示,在与 ChatGPT 分享任何问题和数据之前会征求用户的许可,与 Meta 的 AI 合作应该与之类似。