加入收藏 | 设为首页 | 会员中心 | 我要投稿 威海站长网 (https://www.0631zz.cn/)- 科技、云服务器、分布式云、容器、中间件!
当前位置: 首页 > 站长资讯 > 动态 > 正文

如何在大型模型中使用更具信服力和可达性的方法

发布时间:2023-07-08 09:32:18 所属栏目:动态 来源:互联网
导读:   在世界人工智能大会期间,许多人都会提及到 ChatGPT 这个话题,既被它的神奇功能所折服不已,同时也对其潜在的风险和担忧深感焦虑不安。



  幻觉问题



  首先是幻觉问题
  在世界人工智能大会期间,许多人都会提及到 ChatGPT 这个话题,既被它的神奇功能所折服不已,同时也对其潜在的风险和担忧深感焦虑不安。
 
  幻觉问题
 
  首先是幻觉问题。所谓幻觉,用通俗的话说就是“一本正经说瞎话”。使用过ChatGPT等生成式人工智能的人可能都有过这样的经历:它们常常会斩钉截铁地给出一些看似合理却错误百出的回答。
 
  出现幻觉,是因为机器学习的语料出了问题。云天励飞副总裁肖嵘把人工智能比作有样学样的儿童,大人教了什么,他就说什么。肖嵘认为,要解决幻觉问题,就要对人工智能输入的语料做事实确认。
 
  目前,解决幻觉问题已经有了一些进展。比如,对大模型的输出结果加强防御。中外人工智能领域都在尝试的一种防御方式是“红队测试”,也就是用一种大模型攻击另外一种大模型,以检测受攻击大模型的漏洞。
 
  对齐问题
 
  另一个与幻觉问题相关的问题是对齐。所谓对齐,就是让人工智能的目标与人类的目标一致。ChatGPT这样解释:确保人工智能系统的行为和决定符合人类的价值、目标、道德考量。解决对齐问题的目的是让人工智能为人类所用,并避免产生灾难性后果。
 
  长久以来,科学家一直担忧对人工智能失去控制。1960年,控制论之父维纳就发表了一篇有先见之明的文章,担忧“机器以程序员难以理解的速度学习,并发展出始料未及的策略”。近来,人工智能取得惊人进步,维纳的忧惧显得迫在眉睫。
 
  研究界提出了数据筛检和监管两条策略解决对齐问题。数据筛检与解决幻觉问题的策略相似,就是让人工智能学习的数据更准确、更能反映人类的价值观。但也有不少业内人士指出,随着人工智能系统变得越来越复杂,数据筛检也越来越困难。
 
  更多研究者认为需要加强人工智能的监管。上海人工智能实验室教授乔宇说:“我们不仅需要人工智能界的参与,还需要引入社会科学的学者,共同建立人工智能大模型框架,确保它符合人类的价值观。”
 
  成本问题
 
  如果说目前的大数据模型实验室是用钱一点点堆出来的,那么这个可能并不过分。大模型的各项投入——数据、算力、电力、程序员——都耗资不菲。例如,训练GPT-3使用了1.3吉瓦时的电力(足以向美国121户家庭供电一年),而GPT-4的训练成本高达约1亿美元。
 
  不过,业界认为这只是一个暂时现象,人工智能的成本会逐步下降,大模型会越来越可及,为千行百业和普通人所用。近日,一家美国机构仅花费了2万美元就训练出一款GPT-3同等水平的大模型。此外,受益于一些开源大模型,后来者训练新模型的成本大大降低。
 
  未来,各行各业使用大模型的成本也会降低。阿里云首席技术官周靖人认为,降低使用门槛的重要途径是建立“大模型自由市场”。他说:“有了这样的社区,使用者就知道去哪找大模型;同时,开发者能更高效地查找模型,把模型集成到自己原有的业务体系里,帮助大模型生态不断创新。”
 
  阿里云推出了大模型社区“魔搭”,现已聚集180万开发者和900多个模型。
 
  虽然大模型还存在不少难题等待解决,但是业界普遍看到了人工智能时代的曙光。乔宇借飞机的发展历程展望人工智能。他说,1903年莱特兄弟首次驾机飞行,在那个时代,飞机只是探险者的游戏。但是,100多年后的今天,全球航空工业已非常发达。随着技术的进步,飞机的速度越来越快,载客量越来越大,这意味着它们需要更多的人工智能来提供服务。

(编辑:威海站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章