聚焦
最强聊天机器人来了,能写情书、改错别字、编代码!明天,ChatGP
2020年到2021年,中国大模型数量从2个增至21个,基本与美国处于同等量级,大幅领先于世界其他各国。在此期间,国内还出现了基于昇腾的鹏程、盘古、紫东、太初、悟道等千亿甚至万亿级别的大模型。
云开发者社区
另据智谷趋势分析,目前全球约有30个千亿级参数的大模型,其中美国15个,中国10个。由于大模型对芯片、算力、电力、数据要求极高,注定是一个极少数国家才能参与的游戏。
AI大模型步入爆发期,而这次ChatGPT之所以引发行业关注,黄民烈认为原因在于,大模型本身有很大的能力,但过去行业都在解决一些单一技能的问题,而ChatGPT的诞生说明,基本的模型能够衍生出来各种可能的应用场景。
一款能够解决各行各业问题的AI,在此之前,行业为何缺少这方面的尝试?黄民烈指出,是由于此前时机还没到。“大模型技术、基座模型的发展也就是这一两年的事,同时因为这个东西并不是所有公司都能做,首先,它需要有具备底层模型和算法能力的人,其次需要有大的数据,最后需要资金,而且还要找到好的技术路径。”
“我们中国的研究者以及企业肯定要去思考这样一些问题:我们能不能做自己的基座模型?能不能做自己的 GPT?”黄民烈不认为说我们技术上有多大的差距,差距更多在于大家对这件事的态度。
他补充道,“像OpenAI,他们长期把这事做的非常严肃,从提取数据到新模型,最后给大家提供API,然后再去清洗数据、模型迭代,他们的路径做得非常扎实。而我们部分企业可能更多是做一个模型出来之后开源,随后就没了下文。也有些公司想去做闭环,但这确实也很烧钱,也需要一些资本的支持,目前国内,可能这方面的商业环境和土壤相对要欠缺一些。”
一个问题是,对于逐利的资本而言,是否愿意长时间花大笔资金投入,去支持一件短期可能见不到商业变现,至少盈利可能还比较遥远的事?
免责内容与数据仅供参考,不构成投资建议,使用前核实。据此操作,风险自担。
通用人工智能到来前,信任问题待解通用人工智能,被视为是人工智能研究的一项长期目标。
此次ChatGPT横空出现,被一些人视为向通用人工智能迈进的重要一步。从吟诗作赋到写代码、检查代码,ChatGPT显示出了人工智能从过去的一个AI工具只能解决单一领域问题,向解决多领域问题的转变。
正如车万翔教授所认为的,它在某种程度上打破了“思想的桎梏”,沿着这个方向,通用人工智能工具,或许确实离我们又更进一步。
但在此之前,信任度不高,是“ChatGPT”们亟需解决的问题。瑞莱智慧高级产品经理张旭东在接受时提示,以ChatGPT为例,其负面风险更多在于这项技术被恶意应用,比如被用于假新闻的生成、故意伪造新闻舆论,对内容生态治理造成影响。另外在某些创作领域,这项技术成为“作弊工具”,造成一定程度上的不公平。而这些风险更多源自使用技术的目标本身,以及技术使用的边界没有被加以管控。
负面风险的存在也可能加重人们将其作为工具使用时的不信任,进而影响其未来的商业化落地应用,这也将是所用的AIGC产品共同面临的难题。