文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门评论
- 错别字 (1 points, 一般) by 陈少举 在 2024年11月02日23时42分 星期六 评论到 Linus Torvalds 用电动汽车取代了燃油汽车
- BaD kEyBoArD: tYpO (1 points, 一般) by lot 在 2024年09月25日21时26分 星期三 评论到 美国汽车召回愈五分之一是修复软件
- Guo farm accumulated wealth, the ants lost all the (1 points, 一般) by solidot1727141937 在 2024年09月24日09时39分 星期二 评论到 日本科学家用猫制作 iPS 细胞
- 但是又快又便宜 (1 points, 一般) by Craynic 在 2024年09月09日13时12分 星期一 评论到 澳大利亚政府研究发现 AI 在概述上的表现比人类差
- (1 points, 一般) by gashero 在 2024年09月04日12时41分 星期三 评论到 众多高校撤销外语专业
- 让他们贴支付宝或微信捐款的方式 (1 points, 一般) by solidot1725066425 在 2024年08月31日09时08分 星期六 评论到 KDE 将每年通过桌面通知请求一次捐赠
- 更现代? (1 points, 一般) by Craynic 在 2024年08月28日13时15分 星期三 评论到 微软撤回了弃用控制面板的声明
- 对延迟退休的错误理解 (1 points, 一般) by solidot1723550599 在 2024年08月13日20时09分 星期二 评论到 中国人 50 岁后还能健康工作多少年?
- (1 points, 一般) by solidot1723275683 在 2024年08月10日15时45分 星期六 评论到 甜味剂赤藻糖醇可能增加心血管疾病风险
- 不值得信任google (1 points, 一般) by solidot1722426862 在 2024年07月31日19时56分 星期三 评论到 Chrome 服务故障导致部分用户无法访问保存的密码
Google CEO 皮查伊(Sundar Pichai)接受 CBS 《60 分钟》节目的采访,谈论了他对 AI 的担忧,以及为什么该公司不发布 AI 聊天机器人的高级版本。皮查伊称,Google 创办之初制定的不作恶信条仍然在公司的行为准则内,不发布 AI 聊天机器人 Bard 的高级版本是出于负责任的理念,给社会更多时间适应技术,给公司更多时间开发安全层。皮查伊称,让他夜不能寐的是 Google 的 AI 技术被以有害的方式利用。Bard 内置了安全过滤器,以帮助抵御恶意用户的威胁。Google 需要持续更新系统的算法,以打击虚假信息,检测深度伪造(deepfakes)和逼真的计算机生成图像。皮查伊表示,消费者 AI 技术正处于起步阶段,现在是政府介入的正确时机。他称 AI 技术必须被监管,确保它如 Google 行为准则描绘的那样“做正确的事”。
今年索尼世界摄影大奖创意类别的头奖得主是一幅 AI 合成图像,自称摄影媒体艺术家的 Boris Eldagsen 在其递交的《THE ELECTRICIAN》获奖之后通过个人网站宣布了这一消息,并详细描述了该图像是如何利用 AI 图像生成工具一步步合成的。Eldagsen 称其作品是图像而不是照片。他希望此事能引起摄影行业对 AI 合成图像的公开讨论。他承认索尼世界摄影大奖评选的是照片而不是图像,因此拒绝领奖。他还亲自自费前往颁奖现场宣布了拒绝领奖的决定。他的作品已被主办方撤下,但主办方至今未对此发表评论。
Adobe 宣布它计划在其产品 Premiere Pro 和 After Effects 中加入 AI 视频合成工具。新的视频生成式 AI 工具由 Adobe Firefly 提供,Firefly 在上个月推出时是一个图像生成工具,Adobe 拓展了其功能,加入了对视频和音频生成工具的支持。Adobe 称,Firefly for Video 能简化视频特效和编辑工作,能生成背景音轨、生成音效,改变视频中的季节颜色,通过输入文字的方式生成特效,等等。
OpenAI 联合创始人兼 CEO Sam Altman 在讨论 AI 带来的威胁时确认该公司目前没有在训练 GPT-5——GPT-5 是 OpenAI 今年 3 月发布的 GPT-4 的下一代系统。OpenAI 尚未开始训练 GPT-5 并不意味着该公司没有在扩展 GPT-4 的功能。他表示 GPT-4 还有各种安全问题需要解决。
在微软和 Google 之后,亚马逊也加入了生成式 AI 的竞赛,但它不是推出自己的 AI 聊天机器人,而是通过其 AWS 平台向用户提供大语言模型去构建自己的聊天机器人。亚马逊发布了 Bedrock 平台,向用户提供访问 Anthropic 和 AI21 开发的模型。亚马逊还提供了自己的模型,其中 Titan Text 能从提示生成文本,Text Embeddings 生成文本的数学表达,可用于翻译和搜索等任务。AWS 还提供了 Stability AI 的开源模型 Stable Diffusion。
亚马逊宣布其 AI 编程助手 CodeWhisperer GA(Generally Available),所有开发者可免费使用个人版本。CodeWhisperer 和微软/GitHub 的 AI 编程助手 Copilot 类似,使用开源代码库进行训练,根据上下文向开发者提供代码完成建议。CodeWhisperer 支持 Visual Studio Code、IntelliJ IDEA、CLion、GoLand、WebStorm、Rider、PhpStorm、PyCharm、RubyMine 和 DataGrip IDEs 等开发工具。亚马逊称,测试者的试用显示其编程速度平均提高了 57%。 CodeWhisperer 向企业级客户提供了专业版本,其中包含了额外的功能,如 SSO 和安全扫描等等。
Databricks 公司两周前发布了它的指令遵循(instruction-following)大语言模型 Dolly,本周三它发布了 Dolly 2.0——可授权商业使用的开源指令微调大语言模型。Dolly 2.0 有 120 亿参数,基于 EleutherAI pythia 模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks 开源了 Dolly 2.0 的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的 LLaMA 衍生模型使用的是非商业使用授权。
基于大语言模型的 AI 聊天机器人没有知觉也没有智能,但它们能逼真的模拟人类行为。斯坦福大学和 Google 研究院的六位计算机科学家在预印本平台 arXiv 上发表论文《Generative Agents: Interactive Simulacra of Human Behavior》,描述了他们开发的软件架构,运用大语言模型存储、合成和应用相关记忆去生成可信行为。
简单而言,他们将相关代码接入 ChatGPT 创造出某种生成式角色(generative agents),彼此之间使用自然语言文本通信进行互动和追求自己的目标。研究人员创造了 25 个角色,在一个类似《模拟人士》的沙盒世界里像人类那样生活、互动和制定计划。研究人员观察到,ChatGPT 之类的大语言模型编码了大量人类行为。如果给出足够狭窄的上下文提示,大语言模型能生成逼真的人类行为——这种自动化互动不再受限于特定的预编程问题和答案。
调试程序找出 bug 的过程是令人沮丧的,为什么不让 AI 来帮助你完成这个工作?一位用户名为 BioBootloade 的开发者创造出能帮助 Python 程序自我修复的程序 Wolverine。代码发布在 GitHub 上。使用 Wolverine下需要用户拥有 OpenAI 的 GPT-3.5 或 GPT-4 的 API key。GPT 3.5 API 目前开放给所有用户使用,但 GPT-4 的访问是受限的。
经济学家 Bryan Caplan 测试过基于 GPT 3.5 的 ChatGP,在他所教的劳动经济学课期中考试中 ChatGP 只拿到了 D,他打赌 AI 聊天机器人在 2029 年前不可能拿到 A。三个月后他就赌输了,GPT 3.5 的升级版本 GPT-4 得到了 A。现在知名量子计算专家 Scott Aaronson 用 GPT-4 测试了《量子信息科学入门 2019》期末考试,结果 GPT-4 得分 73 / 100,对比下学生的平均得分是 74.4,GPT-4 拿到了 B。他发现 GPT-4 最大的薄弱环节是在计算问题上,这非常讽刺性,它知道如何计算,但搞砸了计算的执行。
日本东京大学和上智大学等限制学生使用 ChatGPT 写报告或论文。ChatGPT 帮助撰写的文章存在著作权以及内容可能错误的问题,部分日本大学明确禁止学生使用,还有部分大学考虑将其作为信息获取工具允许在课上使用。东京大学在校内网上发布了对 ChatGPT 和可生成图像的生成式 AI 等相关见解。其中强调称“有关报告,前提是由学生本人制作”,表示教师方面有必要结合询问情况和笔试来确认报告是否为本人所作。日本东北大学表示“完全排除使用 AI 是不现实的”,指出 AI 数据中若包含第三方的著作品,可能会构成侵犯著作权。上智大学公布文件称报告或论文“不允许使用”,明确规定了禁用,并表示一经发现使用将严格处理。 京都大学校长凑长博在入学仪式上提醒学生:“用 AI 制作文章有包含明显错误信息的风险。”他还呼吁学生“自己写出可靠妥当的文章会锻炼精神力和思考力”。
可汗学院创始人 Sal Khan 相信 OpenAI 最新的生成式 AI GPT-4 做好了给学生当导师的准备。可汗学院是 GPT-4 的早期用户之一,它提供的基于 GPT-4 的教育助手 Khanmigo 正在美国多个学区进行测试。Khanmigo 的工作方式类似线下或线上的辅导老师,检查学生的作业,在遇到问题时提供帮助。举例来说,对于数学题目,Khanmigo 不仅仅能判断正确还是错误,还能判断学生的哪一步推理错了。Sal Khan 表示,他理解部分学校对 ChatGPT 等生成式 AI 的担忧,指出许多批评者其实自己也在用它们,甚至让他们自己的子女使用。他认为 AI 能为发展中国家和发达国家的儿童提供一种个性化学习的机会。
在 Reddit 上,一名叫 Claudia 的用户向其他用户出售裸照。她非常受欢迎,公开的示例照片吸引了很多用户表达仰慕之情。但根据研究人员的分析,Claudia 的照片是 AI 合成的。AI 图像生成工具 Midjourney 和 Stable Diffusion 的快速进步让任何人都可以创造出足以以假乱真的色情图像。一位匿名的系统管理员表示他使用 Stable Diffusion 生成了穿尿布的成年女性的图像,表示图像质量的进步让造假变得无足轻重。他认为看色情照片的普通人根本就不在乎伪造,他们不会在现实中与照片的人见面,所以即使是假的,谁又在乎呢?一位在 OnlyFans 上出售裸照的性工作者表示不担心 AI 生成图像,说 AI 会取代性工作者的人是那些不怎么把性工作者当人的人。
阿里巴巴在北京举行的 2023 阿里云峰会上宣布,企业可以调动阿里旗下通用大模型“通义千问”的能力,训练自己的企业大模型。阿里云智能 CTO 周靖人介绍,阿里云会为企业提供专属数据空间,企业不需要对数据预处理,以 PPT、PDF、图片、企业数据库等形式将企业信息上传,阿里云便能通过多模态能力,把企业的知识体系和“通义千问”有机结合在一起,从而一键式生成大模型。企业可以通过 API 接入的方式,拓宽模型的应用场景和业务价值,包括可以根据自己的需求开发网页版、App 版等应用。
网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,意见反馈截止时间为 2023 年 5 月 10 日。《管理办法》要求:
第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。
(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。
(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
一位自由撰稿人称她为客户写营销相关内容的工作被 AI 聊天机器人 ChatGPT 取代了,她已经注册了 Doordash 准备改行当送餐骑手。这位客户是她最主要的收入来源,时薪高达 80 美元。许多人说,如果你是一名优秀的写作者,你不会被 AI 取代。然而情况是:虽然 AI 的作品达不到你的高度,但能达到五成甚至六成,同时成本可能是你的千分之一甚至万分之一,对追求利润的企业而言,选择 AI 还是选择你是显而易见的。基于 GPT 3.5 的 ChatGPT 在创意写作上的能力逊于最近推出的 GPT 4,GPT 4 与人类作者之间的差距已经非常小了。
日本首相岸田文雄周一在首相官邸会见了 OpenAI 首席执行官(CEO)阿尔特曼(Sam Altman)。该公司的 AI 机器人 ChatGPT 因具有类似人类的自然语言对话能力而引发广泛关注。阿尔特曼向媒体透露,岸田听取了有关 ChatGPT 优缺点的介绍,对其很感兴趣。阿尔特曼还就如何应对 ChatGPT 的风险向岸田表达了自己的想法。他还对媒体表示,考虑在日本开设办事处。官房长官松野博一在记者会上就 ChatGPT 表示:“如果能消除处理机密信息及信息泄露的担忧,为了减轻国家公务员的业务负担,将就加以利用的可能性进行探讨。”
多名三星软件工程师将公司的机密代码输入到 OpenAI 的 ChatGPT 中,让 AI 聊天机器人帮助调试代码和修复错误。一名员工从一个半导体数据库中拷贝存在 bug 的代码到 ChatGPT,要求它找到修正方法。另一名工程师做了同样的事,要求 ChatGPT 优化代码。第三名工程师要求聊天机器人总结会议记录。三星在监测到这些情况之后,采取行动将员工能输入到 ChatGPT 中的提示限制在 1024 个字节。
法学教授 Jonathan Turley 发现自己被 ChatGPT 列入了性骚扰名单,澳大利亚一位市长发现 ChatGPT 声称他有贿赂罪被判处监禁,为什么 AI 聊天机器人 ChatGPT 和 Bing Chat 擅长捏造故事?AI 研究人员通常将此类错误称为“幻觉(hallucinations)”,一部分人认为这个形容词太拟人化了,暗示了它们能自己做决定。商业大语言模型的创造者可能会以此为借口将错误输出归罪于模型本身而不是他们自己。“虚构”可能是更恰当的比喻。在人类心理学中,记忆出现空白,在无意欺骗他人时大脑会虚构出空白部分。ChatGPT 与人脑的工作原理不同,但虚构是更合适的比喻。ChatGPT 事实上已经比它的前辈能更有效的抑制虚构了。这种虚构能力与大语言模型的工作方式相关。ChatGPT 等模型是根据统计概率挑选出一个适合上下文的词,当它寻找其数据集中不存在的信息时,它会用看似合理的词贴补空白。它是使用海量的数据集训练的,编造虚构故事对其而言就是信手拈来,它还能根据上下文让虚构的故事看起来逼真。AI 研究人员使用名叫 temperature(温度)的属性去控制模型的这种胡编乱造的“创造性”。如果它的值设置过低的话准确度会提高但会变得不太有趣。平衡创造性和准确度是微调 ChatGPT 之类模型的一大挑战。AI 公司 Hugging Face 的首席伦理科学家 Margaret Mitchel 说,ChatGPT 不是构建去实事求是,因此也不会实事求是。就是这么简单。
微软宣布 MS Edge 成为第一个也是目前唯一一个整合 AI 图像生成器的浏览器。微软表示 Edge 用户可以通过侧边栏的“+”按钮访问其 AI 图像生成器 Image Creator——目前该功能尚未提供给中国大陆的用户。Image Creator 是基于 OpenAI 最新的 DALL∙E 模型,用户可通过文字描述生成各种风格的图像。