GPT-4 变笨加剧,一个笑话讲八百遍;ChatGPT 之父剑桥演讲遭抵制丨 RTE 开发者日报 Vol.77

原创
2023/11/03 16:34
阅读数 45

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE (Real Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@Asui@CY

01有话题的新闻

1、苹果 M3 Max 芯片跑分曝光,运行速度与 M2 Ultra 一样快

苹果近日正式发布了 M3、M3 Pro、M3 Max 芯片,采用先进的 3nm 工艺打造。新一代的 GPU 架构更为强大,支持光追,app 专业渲染速度比 M1 家族提升 2.5 倍。苹果 M3 Max 芯片的第一个基准测试结果已出现在 Geekbench 6 数据库中,根据显示的「Mac15,9」设备标识符,似乎适用于新款 16 英寸 MacBook Pro。截至目前,多核最高得分为 21084。相较而言,Mac Studio 的平均多核分数为 21316,M3 Max 的速度与 M2 Ultra 芯片相近。(@DoNews)

2、全球首届 AI 安全峰会召开,28 国签署《布莱切利宣言》

11 月 1 日,首届全球 AI 安全峰会在英国布莱切利庄园拉开帷幕。在开幕式上,由包括中国在内的与会国共同达成的《布莱切利宣言》正式发表。这是全球第一份针对人工智能这一快速新兴技术的国际性声明,旨在关注对未来强大 AI 模型构成人类生存威胁的担忧,以及对 AI 当前增强有害或偏见信息的担忧。《布莱切利宣言》呼吁和倡导以人为本,希望 AI 科研机构、企业等以负责任的方式,设计、开发和使用 AI。该《宣言》肯定了 AI 在改善人类福祉上的巨大潜力,也警告了在发展 AI 过程中有意或者无意带来的伤害,希望通过法规等方式避免相关风险。(@环球网)

3、Meta AI 高管认为开源许可需要改变

Meta 的大模型 Llama 2 开源但并不自由,它允许研究人员查看源代码,但限制了商业使用,不符合开源促进会(Open Source Initiative 或 OSI)对开源的定义。根据 OSI 的定义,开源不仅仅是共享代码或研究,它还包括自由地再发布、源代码访问、允许修改,不与特定产品绑定。Meta 限制了 Llama 2 模型的商业使用,要求日活用户数超过 7 亿的公司付费获得商业授权,并禁止在 Llama 2 基础上训练其它模型。

Meta AI 研究副总裁 Joelle Pinea 承认公司对大模型的开放有限制,但表示这是信息共享益处和 Meta 业务潜在成本之间的必要平衡。Pineau 指出现有的开源许可证没有考虑到软件使用海量外部数据构建的情况,对于版权侵犯,绝大部分开源闭源许可证只让用户和开发者担负有限的责任。而 Llama 2 之类的模型如果产生了侵权作品,用户可能需要承担更多的责任。目前的软件许可证没有考虑此类情况。(@Solidot)

4、曝苹果将在印度启动 iPhone 17 研发,首次不依靠中国

11 月 2 日,天风国际证券知名分析师郭明錤发布报告,预测苹果将于 2025 年下半年推出 iPhone 17 标准版。他表示,新产品的导入(NPI)将在明年下半年在印度开始,这将是苹果首次在中国以外的生产线上研发新款 iPhone。

郭明錤进一步指出,到 2023 年,全球大约有 12%至 14%的 iPhone 将在印度生产。在印度的 iPhone 产能中,75%至 80%由富士康母公司鸿海拥有。如果一切顺利,印度在 2024 年生产的 iPhone 比重将提高到 20%至 25%。随着印度 iPhone 产能的提高,鸿海在中国郑州和太原的生产规模预计将在 2024 年分别减少 35%至 45%和 75%至 85%。郭明錤指出,立讯的 iPhone 生产比重快速提升和产线自动化改善也是鸿海减产的主要原因。(@手机中国)

5、谷歌 Assistant 语音助手团队调整,20 多名数据科学家被裁

11 月 2 日消息,报道称,据内部人士和一份记录公司内部裁员情况的员工文件透露,谷歌已经解雇了一些从事语音助手工作的员工。周一,一些从事 Assistant 项目的员工被告知他们的职位被取消了。据该员工文件称,被裁掉的员工有多达 20 名,他们都是数据科学家。该文件还指出,一些被裁员工上周五刚从 Bard 团队转移到 Assistant 团队。该文件是由员工编制的,汇总了在内部和外部发布的关于裁员的信息。“其中一名被裁员工正在休产假,另一名患有癌症,”文件写道。被裁员工有 60 天的时间在公司内部找到新的职位,否则他们将不得不离开。谷歌发言人在一份声明中表示:“为了优化我们团队结构,使其更符合我们最高优先级的目标,我们对团队进行了重组,以更好地支持我们的战略业务目标。”(@IT之家)

6、ChatGPT 之父剑桥演讲遭抵制:抗议者挂横幅扔传单

当地时间 11 月 1 日,山姆·奥特曼代表 OpenAI 团队接受 2023 年霍金奖学金并演讲时遭到抵制。数名抗议者悬横幅、扔传单,引来观众嘘声,场面一度十分混乱。而在活动开始前,就有少数抗议者聚集在外面,举着标语要求停止 AI 竞赛。(@新浪科技)

7、GPT-4 变笨加剧,被曝缓存历史回复:一个笑话讲八百遍

有网友找到了 GPT-4 变“笨”的又一证据。他质疑:OpenAI 会缓存历史回复,让 GPT-4 直接复述以前生成过的答案。最明显的例子就是讲笑话。证据显示,即使他将模型的 temperature 值调高,GPT-4 仍重复同一个“科学家与原子”的回答。就是那个“为什么科学家不信任原子?因为万物都是由它们编造/构造(make up)出来的”的冷笑话。

发现者表示:这说明 GPT-4 不仅使用缓存,还是聚类查询而非精准匹配某个提问。但并不是所有人都同意以上发现能够证明 OpenAI 真的就是在用缓存回复。他们的理由是作者采用的案例恰好是讲笑话。在今年 6 月,两个德国学者测试发现,让 ChatGPT 随便讲个笑话,1008 次结果中有 90%的情况下都是同样 25 个笑话的变体。(@量子位)

02有态度的观点

1、马斯克:AI 比人类聪明很多,是最大的威胁之一,需引导控制

马斯克表示,希望建立一个「第三方裁判」,监督开发 AI 的公司。当地时间 11 月 1 日,全球首届人工智能(AI)安全峰会在英国开幕,马斯克在峰会上表示在政府采取监管行动之前,他们需要先了解 AI 的发展情况。

马斯克将人工智能称为一把「双刃剑」,这项技术在他看来至少有 80% 的机率对人类有益,20% 的机率会带来危险。他强调,人工智能是人类「最大的威胁」之一,这是人类历史上第一次出现比我们聪明得多的东西,不清楚是否可以控制这样的东西(AI),「但我认为我们可以立志引导它朝着有利于人类的方向发展。」

在此次峰会之前,英国发表了一份由 28 个国家和欧盟签署的声明,确定共同关注的人工智能相关风险,制定跨国政策来缓解这些风险。(@澎湃新闻)

2、ASML 中国总裁:中国已有近 1400 台 ASML 光刻机

据消息,ASML 全球副总裁、中国区总裁沈波在访谈中表示,到 2023 年底,ASML 在中国的光刻机加上量测的机台装机量接近 1400 台。

沈波透露,“我们现在对自己产能的判断,目标是在 2025 年底或 2026 年初,具备每年 500 台 -600 台深紫外(DUV)的设备产能。”据悉,目前,ASML 在中国设有 16 个办事处、12 个仓储物流中心、3 个开发中心、1 个培训中心以及 1 个维修中心。ASML 在中国大陆的员工总人数已经超过 1600 人。(@集微网)

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

素材来源官方媒体/网络新闻

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部