为什么全人类要呼吁通用管理人工智能呢?
3月底,包括马斯克在内的众多社会名流联合签署了一封公开信,希望包括OpenAI在内的机构至少停止更高能力的AGI研发6个月,并希望人类社会能够达成基于AGI(通用人工智能)威胁的某种协议。
这封信的文本不长,但包含了非常广泛的内容,内容问题丰富。
例如,人类应该如何计算这个科目mdash,mdash;AGI让信息渠道充斥着宣传和谎言,如果是人类本来就喜欢和满足的工作,难道不应该被AI取代吗。这些效率的提高是否值得我们去冒ldquo。失去对文明的控制的风险?人类AGI的监管体系应该如何建立。
这封信的最终结果引发了硅谷规模史无前例的观点撕裂的大讨论。毕竟,如果以GPT3.5对人类社会的视野为起点,对于AGI的发展,人类还有很多盲点没有解决,很多讨论都没有达成一致。然而,在人类还在争吵的时候,AGI开始在全世界制造麻烦,虚假信息和信息泄露就像一个令人不安的巨大黑匣子。
因此,最近一段时间,包括欧美、日韩在内的各信息发达国家开始了关于大模式限制的讨论。另外,4月11日,国家互联网信息办公室也发表了《生成式人工智能服务管理办法(征求意见稿)》(以下简称办法)
《办法》的重要意义在于,它可以说是人类社会面对AGI管制中最早的公式文件之一。
另一方面,监管视角往往理解AGI中的独特角度:
与科学家的视角不同,有许多参数上的复杂解释体系,有许多复杂的模型框架流派。监管者是社会利益的代言人,也常常站在整个社会的角度来思考。因此,监管者的想法往往也更接近大多数人朴素的直觉。但同时也代表了核心专家群体的思考,因此也可以部分应对新事物的诸多讨论。
因此,这本《办法》实际上是很多人了解AGI的窗口,可以帮助他们更好地理解和参与AGI的讨论。因为AGI既不是天使也不是恶魔。而且,魅惑后的AGI也将成为我们公共生活的重要部分。
ldquo;我是谁。人工智能
站在硅谷的角度,AGI几乎等于一个大模型。优化的模型,结构语料库和庞大的计算力相结合,是一个有点智慧的思想特征的计算机程序。
“文件”与该ldquo相对,为新种rdquo;划入ldquo;生成式人工智能rdquo;行业,即ldquo;一种基于算法、模型、规则生成文本、图像、声音、视频、代码等内容的技术。rdquo;
显然这是从AI和社会关系的角度出发的。
毕竟,AGI未来的技术特征会改变,模式大小会变动,但最终追求与社会互动的内核不会改变。无论模型的封闭开发持续多久,最终目的都是面向社会进行内容输出。这是过去辅助决策、搜索、安全、支付等垂直AI和AGI的核心区别。
从技术愿景来看,具有广泛用户基础的ldquo;生成表达式AIrdquo;其概率是AGI的底层能力产品。
对于一般人来说,AGI(通用人工智能)这个名词确实太过ldquo;魅惑rdquo;。很多人把AGI和人类的智慧进行类比,就像看到了一张ldquo。赛博灵魂rdquo;、AGI只是有点智慧的迹象,忘记了未来的发展其实有很大的不确定性。
所以我们的未来就像《西部世界》中的ldquo;AGI社会rdquo;我们宁愿迎接ldquo。生成式人工智能rdquo;的世界可能更接近我们这一代人的技术现实。
ldquo;我是谁的。服务提供商
AGI伦理讨论存在经典问题:大模式生成的内容、著作权到底属于大模式公司还是属于辛苦写prompt(提示语)的用户?
《办法》未明确规定著作权归属,但对监管负有责任义务,可供更多人参考。根据《办法》:
ldquo;利用生成式人工智能产品提供聊天和文本、图像、语音生成等服务的组织和个人(以下简称lsquo;提供者rsquo)支持他人通过提供可编程接口等方式自行生成文本、图像、语音等该产品包括负责生成内容的生产者的rdquo。
沿袭这一思路,负责人实际上既不属于大模式研发人员也不属于用户,而是属于连接大模式和用户的服务提供商。
当然,在大多数情况下,AGI的开发者和API提供商应该是相同的代理。但随着技术生态的进展,不同层次的主体可能会多元化。
明确由中间服务提供者负责,其实也符合ldquo。生成式人工智能rdquo;的公式定义。同时,这种权责划分迫使未来的上游产业链必须达到足够的内容互信。
AGI的ldquo;内容权限rdquo;:需要身份证
版权问题类似的讨论,AGI内容是否为人类所能享受的内容,版权问题;?
《办法》明确了AGI内容存在限制,出现在两个地方:
middot;ldquo;识别根据《互联网信息服务深度合成管理规定》生成的图像、视频等内容。rdquo;
middot;ldquo;提供者根据国家网络信息部门和有关主管部门的要求,包括预培训和优化培训数据的来源、规模、类型、质量等描述、手动显示规则、手动显示数据的规模和类型、基础算法和技术体系等,包括用户信任、必须提供能够影响选择的必要信息。rdquo;
关于AGI的内容一直在讨论。特别是在GPT内部测量的情况下,系统有时表现为在村口摆弄手机的老爷爷。您可能会直接向用户提供包括价值判断在内的观点,但没有足够有说服力的信息支持。
如果《办法》落地,AGI将完全告别ldquo。光说是没有根据的。的列车上运行的内容输出,产生了检索等工具属性。过去拿着人工智能合成作品去美术比赛拿奖,也完全是ldquo。黑历史rdquo;。
这实际上与法律精神相匹配,AI在内容生成方面是绝对强者,自然需要承担更多的举证义务。多模式的内容形态可能存在较大的内容风险,当然也需要相应的约束机制。
相反,如果将AGI内容和人类内容完全同权化,可能会对人类自身的内容生态产生难以评估的影响。
ldquo;生态监测:阿西罗马原则
文章开头对OpenAI的公开信中有一个小细节,建议应该有被审计的生态(ecosystem),而不是系统(system)
在公开信中还提到了“先进AI对人类的影响是文明级的,因此其计划和管理所需的资源应该与其自身消耗的资源一致”的阿西洛马AI原则(Asilomar AI Principles)
换句话说,如果生成式AI是一个巨大的系统,仅仅是某一个环节,某一主体不可能完全实现监管。
除了继续强调现有法律的规制地位外,《办法》还强调了生成型AI的全过程规制。
例如语料库(预训练数据rdquo)必须合法合规,数据标记必须训练ldquo,清晰、具体、可操作的标注规则rdquo;使用场景应符合规格并承担相应责任。内容本身需要被标记,用户使用时需要明确的通报反馈通道等。
既然AGI成为巨大的生态基础,监管者也需要以更多元化的方式执行监管任务。
因此,大模型有一个黑匣子属性,但通过一系列组合拳,打倒技术黑匣子后的合规能力也足够,从而达到ldquo。开箱即用;的目的。
为了进一步明确开发者的责任,《办法》中包含了以下项目。
ldquo;对于在运行中发现的不符合用户通报的本办法要求的生成内容,除采取内容过滤等措施外,还应在3个月内通过模型优化培训等防止再生成。rdquo;
换句话说,如果监督方只是想使用ldquo,那么内容过滤rdquo;的手段避免了进一步的模型优化的责任,在《办法》中是违反的mdash,mdash;AGI不仅需要合规API,还需要合规的灵魂。
ldquo;驯服火
有很多人把AGI的发明比作ldquo。火rdquo;,人类学习生火,享受火文明的成果,但同时也需要更长的时间去ldquo;调火rdquo;来修改标记元素的显示属性。
在上面的公开信中,好的AGI至少是一些标准、准确、安全、可解释、透明、坚固、完整、完整、可靠和忠诚的东西(accurate,safe,interpretable,transparent,robust,aligned,trustworthy,loyal)
也就是说,AGI不能像现在这样变成炼丹炉那样的黑匣子。对人类来说,它应该是更可靠的
所以公开信提出了更多的前景技术监管思路,如建立一个大计算力规模的、专业垂直监管体系,达成某种基础代码条约等。这些建议是否值得落地,还需要进一步的行业间讨论。但比较确定的是
就像人类的ldquo一样;在过程中才更了解ldquo;火rdquo;同样,人类社会也通过继续与AGI的相互作用,在玩游戏的过程中可能会更加理解AGI。
【来源:品玩】