大模型可能不是什么大进步,但

原创
2023/11/28 11:41
阅读数 404
AI总结
大模型对技术界带来的冲击与革新已无需赘述,但实际上,业界也一直有个声音认为大模型技术本质上并不是什么大的进步,也无法解决所有问题。而纵观当下技术人的的选择,一方面,我们能看到大家正在积极拥抱大模型,另一方面,我们也能看到许多人在不断思考大模型的局限,尝试找到更适合自己的技术发展之路。
 
10月28日,"寻宝 AI 时代——OSC 源创会苏州站暨 Techo TVP 技术沙龙"在苏州圆满落幕。开源中国社区联合腾讯云 TVP 共同邀请了5位业界大咖,从不同角度分享 AI 技术带来的新变化。最后,演讲嘉宾与开发者代表两两组队,分成正反两方就当下的热点问题,如“AI 技术是否会加剧社会的不平等”、“LLM 标志着人工智能巨大的进展,还是说明人工智能没有什么进步”等问题进行了一场别开生面的技术辩论。
 
在这些分享与辩论中,我们也能更全面地看到 AI 时代技术发展情况。或许多年后回看今年,大模型可能不是什么大进步,但在当下,它确确实实在重塑企业价值,革新存储、数据管理、数据分析、开发等范式……
 
在开始学习之前,先来感受下现场氛围。
一不小心现场又不够坐了,只能溜边加两排椅子(顶锅)
大家听好玩好~
奖品和披萨一个不能少
再次感谢合作伙伴们的大力支持
 
接下来是约 1 万字的内容回顾,够朋友们好好学一会了,加油!
 

张晶白:拥抱大模型重塑企业价值

Thoughtworks 张晶白带来《拥抱大模型重塑企业价值》主题分享。张晶白表示,生成式 AI 的话题虽火,但许多企业仍有顾虑,对话生成式 AI 的结果有时惊艳,有时则不知所云,这在大模型中也被叫做“飘移”。而在大模型的时代背景下,张晶白所遵从的原则是“顺势而为”。
 
基于麦肯锡的一份报告,张晶白总结出:制造、电子、消费者、能源领域在生成式 AI 加持之后,生产力的增益是最大的。从领域来看,营销与销售,产品研发和软件工程是最适合应用生成式 AI 的,这个总结也和 Thoughtworks 在过去的一年里看到的实践基本相符。
 
张晶白分享了 3 个案例。第一个是制药企业的医药代表培训,包括让新员工快速掌握知识和能力,把大模型的能力与虚拟人相结合,模拟培训场景等等。此类培训功能主要是利用模型的基本能力,直接和模型做对话。
 
第二个案例发生在股份制银行。通过在银行 APP 上的对话功能中插入大模型能力,可以自动完成部分工作。比如银行 APP 上许多操作会涉及到钱,相较受限,但还有一些简单的操作如用户需要放大字体,引入大模型的能力后,用户只需要提出问题,手机便会自动设置,无需用户手动操作。
 
第三个是战略咨询公司相关业务。咨询公司需要出具各式报告、分析图表,而通过结合大模型的能力,可以帮助业务人员快速出具完整分析报告、制作图表。这种情况下不仅仅是模型的基础能力,还利用了模型的分析的能力,可以拆解任务、分析文本。
 
分享完案例之后,张晶白谈了他对于大模型技术在企业端落地的几点思考。第一个是如何应对大模型的“偏见”和“飘移”的问题。如在第一个案例中,制药公司想利用大模型对话机器人服务终端的患者,但在医疗行业,问题是不能随便回答的,所以利用生成式 AI 就有很大的问题。这个问题目前的解决方案是要求大模型回答的问题必须来自于限定的医书,有具体出处,不能自己生成答案。
 
第二个是如何应对大模型的数据安全的问题。这是张晶白经常在企业端被提问的,张晶白认为从技术的角度来看这并不是什么大问题,但面对企业端客户尤其是不太懂技术的客户时,这个问题很难回答。
 
技术上的问题也有,比如许多企业原本也已经利用 AI 模型组建了知识库、搭建了聊天机器人,并且机器人客服的水平可能到了 80%-90%。那么现在大模型新技术出现之后,是不是可以高于 90%?重新来过企业是否能接受等等。张晶白的经验是,知识库的检索属于基础性工作,无论是以前的 AI 技术还是大模型,都需要知识库和检索能力的支撑,如果这些能力原本就比较好,则不需要重做。但是有一些信息检索借助生成式 AI 的能力会更加准确,便可以使用大模型技术改变其中的某一个模块,在原本的基础上往上走一步。除此之外,张晶白还分享了其他思考点,可跳转视频号查看回放。
 
整体来看,面对大模型的时代,企业应该做什么事?张晶白认为,我们都在这个圈子里,谁也没有跑出去,前端会发现大量的应用采用了大模型的能力;企业内部很多的人在做各种各样的数据服务、能力服务和基础性工作;这些东西要想很好地承接,中间需要平台来做调动……这种模式中,每个角色都会掌握一个可以自己发挥的点。
 
最后,张晶白强调 AI 不是万能的。在很多的场景下,AI 和深度人工智能是不适合的,比如对于信息不对称的场景,生成式 AI 一定是不擅长的。类似于炒股,炒股是信息不对称的环境,需要博弈论,但凡这种场景一定不要用模型去做,因为大家都在搞量化,所以量化就没有用了。而人还是有作用的,通过 AI 加持,我们就可以发挥 AI 的重大作用,帮我们去改变这个世界。
 

陈旸:AIGC 在行业中的应用和落地实践

清华大学计算机博士、腾讯云 TVP陈旸带来了《AIGC 在行业中的应用及落地实践》主题分享。陈旸主要分享了 AIGC 在几个行业领域中的应用。
 
第一个应用是 SQL Copilot,很多企业人员苦于做报表,希望有更智能化的方式去统计、分析、呈现数据,SQL Copilot就是大家期待的场景。大家熟知的 SQL Database,能比较方便地完成简单的SQL 的查询,但是如果执行的表过多,比如面向有10w、30w张表的金融企业,就很难胜任了。对此,陈旸提供了另一种方案:让LLM来写SQL,并在它写 SQL 的过程中,提供相关的 Chat Model,告诉LLM基于某些过程去进行推理,通过这样的方式,检索的效率会比较高。比如我本地有很多表,我想要统计王者荣耀中攻击力前五名的是谁,这些本地的表非常多,有些表可能和王者荣耀不相关的,有些表里可能找不到攻击力, LLM会做一个检索,生成语句去进行查询,这就是它的一种能力。但在使用SQL+LLM时,也可能会出现SQL查询写得不准确,导致LangChain会尝试多次生成SQL,或者Prompt太泛,导致“答非所问”的情况发生,陈旸也提供了他的解决思路,即内置固定Prompt,不在Prompt中硬编码,并给Agent配备专有知识库,在Prompt中动态完善和Query相关的背景。比如可以从向量数据库中找到相关的内容,放到Prompt中,提升 SQL查询的相关性。
 
第二个应用是 BI Copilot,比如金融机构要根据数据预测用户是否会购买产品,现在也可以模型帮你完成,AI可以通过理解用户的年龄,职业,婚姻等等不同字段的含义和数据进行分析。大语言模型通过文字就可以进行推理,比如统计不同年龄层的比例,甚至在年龄的需求,可以找到其他的字段,比如对用户的违约进行一个分析,用年龄段去做一个分层。最后还可以直接用它生成报告,比如直接文字告诉它,用柱状图进行呈现。
 
除此之外,陈旸还介绍了AIGC在用户观点/趋势分析、客服会话小结、AI识图、智能客服、企业内知识助手等方面的应用。利用LLM对语言更准确的理解,可以更高效便捷地在分析、沟通,甚至是培训等领域增强人的能力,从而解放生产力。
 

屠伟新:AIGC 场景下存储与数据管理的挑战与应对

腾讯云存储专家解决方案架构师屠伟新带来《AIGC 场景下存储与数据管理的挑战与应对》主题分享。
 
在分享伊始,屠伟新首先提出了团队持续关注的问题,从2022年年底 ChatGPT 发布出来以后,AIGC 对数据的要求持续高涨,一方面模型训练需要非常多的数据量,另外一方面AIGC又会生成非常多的新内容。AIGC 产生内容的速度比真人拍照、视频产生内容的速度快非常多倍,是一个爆炸式的增长。在这样的背景下如何应对这么大规模数据的存储,如果保障数据在流转过程中的高效、高性能和高可靠呢?
 
屠伟新向大家介绍了 AIGC 典型的业务流程,开始先从网页或者数据供应商侧进行数据采集,获得需要训练的数据,通过大数据的能力对数据做一些清洗、预处理的工作,然后进行模型训练。在训练的过程中要求非常高的计算能力,存储能力和数据获取的能力。经过迭代,模型输出之后,把模型配送到服务端,再去供给最终的用户提供一个大模型的服务。今年4月份国家网信办发布了《生成式人工智能服务管理方法(征求意见稿)》,对AIGC生成物的合规性做了一系列规定。因此,对于 AI 产生的数据,也会有进一步加工和数据合规的要求。
 
从这些流程中可以发现,在数据采集阶段,数据量是巨大的。ChatGPT在文本的领域只需要几十TB,但如果往图片、视频等模态发展,数据量将呈指数级增长。一些企业在AI领域的原始采集数据量已经接近10PB的规模。面对巨大的数据量,首先需要一个大容量、可靠的存储,同时这些数据的流动也需要快捷高效,屠伟新也推荐大家选择腾讯云的对象存储COS作为数据库的底座,腾讯云COS单集群可以达EB级的规模。在数据采集后,需要对这些数据进行预处理,清洗,打标签,或者是做一些任务类的处理。这时候主要是利用大数据集群的分布式计算能力。在大数据的生态里,我们的存储提供HDFS 的接口。腾讯云对象存储作为底层的基座,可以提供原生HDFS兼容的接口,利用Hadoop生态做一些批量的数据预处理工作。在模型训练的过程中,对于存储的要求是带宽高、时延低。在推理的过程中,则需要满足数据合规、数据智理两大核心需求。
 
接下来屠伟新介绍了腾讯云在 AIGC 整个业务流程中提供的存储解决方案,最底层是对象存储COS,单集群能力可达到上万的节点,带宽高达Tbps级别,容量达EB级。同时腾讯云还提供了标准存储、归档、深度归档等存储类型,配合数据生命周期管理,更大程度上优化成本。在这个基础之上,腾讯云存储还提供数据挖掘、数据生态上的一些解决方案,比如利用腾讯的AI和算法的优势,输出一些图片处理之类的AI技术能力。腾讯云存储面向AIGC场景,也提供了数据加速方案——GooseFS,GooseFS会利用分布节点上的资源,做就近计算端的高速缓存,从而达到2-10倍的性能提升。另外,在AIGC的训练场景里有很多的访问都是基于文件的接口,需要提供高带宽高性能数据存储服务的同时需要完全兼容POSIX语义。我们的GooseFSx产品就是在该场景下提供的兼容POSIX的高性能高并发的数据存储服务。其最大的一个优势是可以与后端的COS存储自由的数据流动,可以方便的预加载所需要的数据训练集以及把训练结果方便的沉降到统一的数据湖存储COS中,使得COS在AIGC整个业务流程中始终保持集中统一的数据存储底座,避免数据孤岛。
 
对于AIGC产生的数据,腾讯云也对应提供了一站式数据智理的方案。腾讯云“数据万象”整合了腾讯前沿实验室技术能力,包括AI实验室、优图实验室、多媒体实验室和天御实验室,结合腾讯行业领先业务的最佳实践,为客户提供图片处理、音视频转码、内容审核、AI识别等多种数据处理的能力。值得一提的是腾讯云存储支持对AI产生的数据进行追溯,比如在生成的图片上打上对应水印,可以提供明水印,也可以提供不影响用户感官的盲水印,后期通过技术提取出水印进行追溯。同时数据万象也提供了便捷智能的图片压缩服务,用户不用调相应的参数,系统会自动分析图片的质量和冗余度,在保证一定图片质量的基础上,降低图片的大小,为客户节省带宽成本。
 

宗正:AI 开启数据分析范式

Kyligence 高级布道师宗正带来《AI 开启数据分析新范式》主题分享。宗正所在的 Kylignece,一直在做 B 端的大数据分析和指标平台。本次会议,他分享了在 AI 时代,大模型对数据分析会产生怎样的影响?
 
以银行、金融和零售业为例,以往进行决策分析,大都是从表生成一个数据看板,然后在其上看指标,做分析。但这里看到的数据价值有限,大部分还是人脑在此基础上进行分析加工。不过有了 AI 之后,数据分析可以“进化”了。
 
首先第一步的尝试,是把指标的语义而不是数据表的结构喂给大模型。一些头部的银行金融券商,其核心数据资产,基本上会沉淀为 1 到 2 万个业务指标,这是一个非常庞大的数字,以 80 / 20 原则,假设 20% 是核心指标的话,基本上就是 3000 个以上,根据这些指标,人力判断更定不够用了,而且耗费的沟通等成本巨大,而大模型能够帮助进行分析解读,甚至是给出决策建议。
 
目前达到的效果是,AI 能够代替人工去写相应的 PPT,并给出一份直接的专业报告。大模型能够识别出哪个指标还没有达到业务的要求、高风险的目标是什么、高风险的目标和当前的企业战略有哪些分歧或者是有哪些差距等等。模型会调用企业的向量化知识库,给到一些决策性的建议。
 
除了传统的指标分析,大模型还能做更深入的研判。如指标波动的背后有哪些维度对它产生了影响?有哪些关联的指标对它产生了作用?这些维度或者是关联的指标,产生的量化的数字是什么,这些数字是不是可以给出一些决策性的建议?可以据此做怎样的调整等等。
 
为了让大模型更懂业务,第二步尝试是把专属知识喂给大模型。
 
一是使用行业知识,这里注意不包含企业本身的义务流程等信息。因为如果直接把企业的知识库喂给大模型的话,实际上带来的幻觉会比直接用通用大模型更严重一点。所以第一条链路是第三方直接通过一些领域的专属知识来喂。比如复购率在制造业和零售业是不一样的,那么垂直领域的大模型会告诉你零售业的复购率是如何进行计算的。这样会得到一个微调的垂直领域的大模型,接下来所有的对话都是根据它来进行。
 
二是使用企业的知识,从现在的实践看,是除掉企业直接的业务数据之外的内容。因为一来企业关注隐私,二来这些数据是企业核心的资产,而且这些数据的变动频率是很大的,如果频率很大又反复做向量化写入和召回的话,造成的成本也比较大。所以做向量化、做检索,直接是把企业和业务数据之外的整个流程上、运营上的内容,以问答的形式放到企业知识库里。
 
到了第三层,指标语义或指标的结构会直接通过提示工程来喂给大数据。通过上面步骤提炼出来的表,再提炼出的指标会以提示工程的形式叠加到用户的提示词上。这个过程是自动的,通过提示词判断现在可能是要做分析,还是想生成报告。如果是想要做分析,那么这些问答里面会涉及到哪一些表、这些表会关联到哪一些指标,这些可以通过指标语义判断出来。关联到的 A 指标和 B 指标,在下一个迭代里面,再把 A 和 B 指标的语义叠加上这个问题,再重新喂给领域模型,类似一个思维链的过程。
 
基于此过程,很重要的一环衔接是 Copilot。理解用户想法,深入理解业务之后,大模型能够把用户的意图转化成相对标准化的查询,给出量化的数据,最后推理出相应的结果。
 
宗正最后介绍了智能一站式指标平台产品 Kyligence Zen。 Kyligence Zen基于业务核心的指标语义,叠加大模型的能力,以自然语言对话的形式,希望做到用户直接提问题,就能够匹配它的指标语义、企业的知识库,包括领域的相关知识。其中,Copilot 定位为数智助理,衔接最后一公里——在输入后理解用户的意图,直到输出时做知识的融合和推理。
 

郑立:LLM 应用开发新范式

Dify.AI Dev&Rel郑立(布拿拿)带来《LLM 应用开发新范式》主题分享,介绍了当下 LLM 应用的创新范式,以及工程新范式和协作新范式。
 
首先应用的创新范式方面,在6月份 Top50 的 Web Products 产品中,流量最高的是伴侣类的应用,To B 领域则出现很多企业数据库管理类应用。郑立以 Jasper 为例做分析,Jasper 是首批采纳GPT-3文本生成功能的社交产品之一,在市场上引起了极大的轰动,其本质是通过社会工程学,将用户下载发布的内容提交给GPT进行分析,为自己提供与他人建立联系的建议。但这种方法涉及到隐私和道德的问题。
 
郑立认为,AI 2.0 的创新范式应该是情景价值加上过往积累,再进行打磨。很多人觉得情绪价值是其中关键,但是往往忽视了过往的产业上的积累,以及产品细节的打磨。企业在做事的时候,有低可靠,高可靠,创意和精准二维四象限,并不需要所有的东西都满足四象限,只需要因地制宜,按照使用的场景匹配出最佳象限。
 
应用的工程范式方面,郑立给出了一些构建好的工作流的方法。为了构建高效的开发工作流,首先需要对数据源进行有限量的高质量约束,并进行清洗和分段处理。虽然传统的大数据处理技术仍然有效,但现在也可以利用LLM进行辅助生成。同时,考虑到国内的大模型供应商提供了丰富的中文数据处理,包括结构化处理,这也是一个不错的选择。接下来,进行数据索引和意图识别是关键。意图识别相当于提前对提出的问题进行分类,并对可能的新问题进行推演,之后再交由GPT生成答案。需要注意的是,数据集的维护是一个持续的过程,不是一次性的。这就要求我们进行持续的运营和迭代。
 
郑立还介绍了RAG 技术实践。这是一种高潜力、灵活且低成本的 AI 增强开发技术,本质是一种 Prompt 的工程,应用端需要收敛情景,我们需要预估输入和输出,需要限定可以做什么,不可以做什么。结合关系数据库、向量数据库、传统的搜索,结合多种数据源的筛选。需要注意以下三个原则:量少高质、回归本质、情景收缩,持续的运营。
 
最后是开发团队的协同范式。从最基础的层面开始,传统软件工程师需要深入理解需求,并进行业务分析(BA)。而在顶层,Dify.AI提出了“Prompt First”的范式变化,这意味着在设计和开发过程中,设计已经占据了主导地位。在这样的协同结构中,主导角色是“Prompt工程师”。在设计阶段,则需要了解Prompt工程师的能力和工作范围,包括常用的工具,如“Prompt IDE”,是一种所见即所得的工具,同时还使用REPL这种软件开发环境。通过不断地根据反馈进行迭代,便能够交付出质量上乘的产品。
 

技术大辩论

辩论环节,现场开发者代表晋剑加入讨论,晋剑目前是Head of DevRel LayerTwoLabs 开发者关系负责人,也是一位在开发者生态领域投入多年的连续创业者、开发者社区运营专家。
 
本环节中,张晶白担任主持人,陈旸、晋剑组成正方代表,屠伟新、宗正组成反方代表。持方由抽签决定,不代表个人观点,以下内容为辩论截选,感兴趣的读者可以移步视频号查看现场回顾。

1、未来 AI 发展更依赖于软件还是硬件的发展?

 
正方(更依赖软件发展):
AI本身是业务端,未来的 AI从业人员,包括在场的演讲嘉宾基本上都是围绕大模型的开发展开工作的。硬件更像是基础设施一样,发展一段时间之后,优胜劣汰,剩下的玩家是比较有限的。所以我认为还是软件开发的开发从业者会更多一些。
——陈旸
 
大模型的发展还是靠软件驱动,硬件的瓶颈确实在,但是算力的问题怎么解决呢?可能可以靠砸机房堆起来,或者是其他途径。所以我们认为还是软件本身更重要一些。
——晋剑
 
反方(更依赖硬件发展):
硬件提供基础,软件在硬件之上完成业务。如果说没有硬件资源,比如计算、存储、网络等支持,在这个赛道里你就竞争不过人家,人家可能几个小时训练完了,你要花几天,还要各种调试。未来 AI 发展一定是软硬件协作的,但要分轻重的话,硬件是基础,肯定离不开。
——屠伟新
 
我们中国其实并不缺优秀的软件开发者,也不缺优秀的硬件开发者,但缺少基础的硬件,比如芯片,而且这个生态非常弱。在生态比较弱的情况下谈软件,不是现阶段首要关注的重点。我们首先要解决卡脖子的问题,那硬件就显得尤为重要。我们解决了这个问题,才可以继续做软件的东西。比如国内的大模型厂商,他们也知道用 GPT4 去训练,但我们对于底层的东西,硬件的知识是非常欠缺的。
——郑立
 

2、生成式 AI 大模型的未来是属于开源模型还是非开源模型?

 
正方(未来属于开源模型):
未来一定是属于开源。回顾操作系统的历史,从微软不断打压 Linux,到这些年开始拥抱开源,甚至是社区生态不断靠近开源……所以可见开源的力量是很强的。同样在 AI 这块,开源方案也会逐步胜出,被广泛采纳。
——晋剑
 
开源和闭源是相辅相成的,开源是生态,闭源是商业。大家可以思考一个问题,OpenAI 是闭源模型,在他的商业模式里,Token 收费是主要来源吗?其实不是,在 OpenAI 所有服务里,Token 收费占比不到 10%,他主要卖的还是云计算,做的是主机生意。所以从商业模式看,开源更多的做为一个引子,吸引大家把数据放到厂商的服务器里,这其实就是在做生态,有了生态后才会有生意。
所以我们觉得开源首先应该会蓬勃发展,未来会有垂直类的大模型、有通用的大模型,可能还会有手机版的大模型。比如最新发布的 ChatGLM3,就可以在手机上进行推理,未来会有更多的开源模型给我们使用。
——陈旸
 
反方(未来属于非开源模型):
我觉得未来应该是闭源的。因为一些头部厂商能够占领生态位,而我们本身也不会需要太多的 Chatbot,那么一定会有头部厂商做出一个超级 Agent,进入到我们的日常生活中。我们个人的使用 AI 助手可能也不会超过三个,除了一个个人助手,一定还有一个企业级的。那么企业级这部分一定是闭源的,因为企业不可能把自己的数据贡献出去,即便存在一定程度上的数据买卖,那这实际上也是属于商业行为,是一种闭源行为。
——郑立
 
开源是技术型生态,但是要落到行业的真正应用和商业化落地,还是要走闭源,尤其是一些垂直行业的细分领域。
因为一方面,这么多开源组织更多地是聚焦在通用场景上做技术探讨,对行业的理解没有某一领域的闭源商业组织强,这里是有商业逻辑在的。另一方面,如果采用开源模型,在商业化落地时想要把它做成商业化产品,可能会发现很难找到及时的指导。商业产品在卖给客户时,一定是有服务保证的,这就必须是闭源的行为,开源做不到。包括现在市面上的一些初创公司,技术上是开源的,但是从商业和实现价值的逻辑来说,还是走闭源,这样才能将产品打磨得更好。
——屠伟新
 

3、AI 技术是否会加剧社会的不平等?

正方(会加剧不平等):
AI 会加剧一些不平等。大家都知道二八法则,当我们掌握一定优势的时候,优势会越来越聚焦。比如谷歌有一个优秀的程序员,一个优秀的程序员可以等于一百个普通的程序员。AI 大模型就像一个装备,在你去玩游戏时,就会拥有更强的优势,不平等的效应就会越来越明显。
——陈旸
 
这个讨论就像互联网刚出来的时候,专家讨论互联网的利弊。同样回到 AI 会不会加剧不公平的问题,以我自己的经验,去年11月份在硅谷用到了 ChatGPT,当时只是在科技圈感受到了它的威力,到今年二三月份时候,搞创业孵化的各种朋友都会问到它,开始破圈焦虑了。在不同的圈层,不同的城市,不同的国家,对于 AI 和算力拥有的程度,对模型使用的程度,认知的程度,AI 工程师的拥有量,这个天然的鸿沟越来越巨大,很不平等。放到国内,各位的老家的产业是什么样的现状,你所在的城市是什么样的现状?数字时代沿海的科技城市,对岸美国那里的硅谷等等,人才密度,算力密度,资本密度高的这些城市,他们在以数字化的方式收割全球,极其不对等。我们山西老家县城里,在 AI 面前没有应对的能力,只有被收割,被使用的能力,它就是产业的末端,完全没有力量往整个产业的上游走一走,极其难。我们在这个圈子里,知道怎么样逐步破圈再往顶端去走,所以我觉得差距会越来越大。
——晋剑
 
反方(不会加剧不平等):
AI 始终还是人的工具,现在还达不到 AI 去发展 AI、AI 去管理人类这一步。AI 对社会来说,会替代很多重复性的工作,但是还是需要人的创意,需要人的判断。
AI 加剧不公平一定的程度上是存在的,这个可能包括一些人被 AI取代了,所以去躺平,甚至找不到工作。那就需要有一个良好的引导和规范,去减少这一方面的不公平,或者是催生一些别的产业。
——屠伟新
 
谈到公平公正的时候,会基于不同的立场,比如说从功利主义或者是基于自由主义上的一种考虑。那么仔细的回想之前,我们其实有一个非常重要的法则就是不应该去伤害人类,我们不应该加剧不平等的机会。这是一个低垂的果实,我们在拿这个果实的时候,我们不应该觉得它是对其他人的不公平,相反我们应该享受到它所带来的便利性,让我们更好地去生活,而不是说因为这种东西,会对社会造成一种恶性的竞争。如果说从自由主义的角度来看的话,AI本身是不是也可以被视为是一个智能体,和人类是有对等的,如果它不想伤害人类,我们人类是不是反过来应该对它好一点。
——郑立
 

4、LLM 标志是否着人工智能巨大的进展?

 
正方(标志着巨大进步):
很明显这是巨大进步,从去年的12月到现在为止,我们一直讨论 ChatGPT 和大语言模型的发展。它越来越像人,人们也越来越感到恐慌,不仅仅是概念上的恐慌,因为它的行为已经超过了一般人,无论是写代码,还是写文案、做图,都比一般人要强。这样的效果,以往的技术肯定是达不到的。因为机器掌握了自己的能力,本身有一些人们发现不了的能力,掌握了一些新的领域和新的知识,完全可以打败人类,这是机器可以战胜人类的标志。所以它对一些特定的问题方面的小模型来说是一个颠覆性的创新,未来会有越来越多的超级 AI 在不同的领域里诞生。
——陈旸
 
我们搞技术的,都会说没有什么技术含量,不仅仅是大模型,同样在 Wet3.0 就连比特币也是一堆技术的组合,没有什么很大的创新,只是底层的各种算力和算法集中组合。回到大模型也是一样的,它的背后早期就有一些理论的沉淀,拆开看每一个东西,看似没有什么,但是在恰当的时机,恰当的空间,把这些技术组合起来所爆发出来的震撼力是天翻地覆的差别。
所以我觉得大模型和比特币都是一种艺术品,技术组合非常惊妙。所以我觉得虽然技术上都是要踩在前人的肩膀上组合的,但是大模型是一个艺术品,和比特币一样,是妙不可言的一种状态,抛开技术细节的一些东西之外,能产生巨大的威力。
——晋剑
 
反方(没有什么巨大进步):
我觉得本质上并不是一种特别大的进步。因为我们所用到的大模型技术,在1958年人工智能诞生之初就有了。第一个用来做人工智能相关的程序,其实是在定义第一代下棋的方向,也就是我们所熟知的深蓝、阿尔法狗这些,其实原理本身就是对弈。现在的大模型,我觉得更像是一种文艺复兴,而不是一种巨大的进步,可能它确实是给我们带来了一些便利,但是一些技术的理论本身,其实很早之前就已经出现了。
——郑立
 
大模型中的一些技术,可能在很早之前人工智能对话中就有了,只不过现在它训练量和参数特别大。另外也是因为硬件的发展,使大模型成为了可能。但是这里面还涉及到一个问题,大模型催生出来的回答是不是完全准确的、或者是在某个场合下是不是适用?这需要判断。所以从这个角度来说,大模型并不能解决所有的问题,还是需要人。而且有不同的场景、不同的上下文也需要不同的答案。所以从这个角度来说,它也是随着软件、硬件,包括数据量正常迭代的一个过程,而不是一个非常跳跃的东西。现在也在不断完善,包括做一些运营、创意生成的图片有些也是不尽如人意的,所以我认为它是一个正常随硬件、软件、技术的迭代过程,并不是非常突破性的、革命性的东西。
——屠伟新
 
张晶白:
这几个问题不是非黑即白的,所有的问题都有两面性。通过辩论的方式,四位老师表达了从正反方看的优势分别是什么,我们要把四位老师的观点结合在一起,才可以更全面地看待这些问题。
 
 
本次苏州站活动到这里就告一段落啦,各位 OSCer 下期再会。
 
 
展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
0 评论
1 收藏
0
分享
AI总结
返回顶部
顶部