ChatGPT引发怪现状之五问

学会提问 1年前 (2023)
21 0 0
ChatGPT引发怪现状之五问

在沉浸式的使用了两个星期的ChatGPT之后,笔者得出这样的结论:ChatGPT不像是一个产品,他更像是一个新物种,一个新的时代,令人惊心动魄。可以这样说,有没有ChatGPT的区别,可能如同印第安人遇到了火枪兵,智人遇到了现代人类。

说实话,笔者十分震惊这样的产品是如何横空出世的,仿佛根本不应当属于我们这个时代,可能是真正由量变引发的质变。可以这么说,随着ChatGPT的迭代完善,加之人型机器人技术的发展,智能机器人完全可以取代人类90%以上的工作。

非常可惜的是,这样革命性的物种,再次发生在了美国,并且严格封禁了中国大陆与香港地区的IP,由此引发了近期发现的一系列怪现状,不得不一吐为快:

1、早在数年前,就有媒体不断报道,中国在人工智能领域,无论是在论文数量还是专利数量上,都高居世界第一,为什么这样的世界第一,造不出甚至能够勉强追赶ChatGPT的产品?我们的科研导向,到底出了什么问题?

2、这段时间,数以百万计的中国用户蜂拥而出前往体验ChatGPT,由于IP的封禁,不得不使用VPN产品(俗称梯子),以至于这段时间最火爆的生意就是卖ChatGPT的账号和“梯子”,这种以落后“封锁”先进的做法,是否有意义?

3、中国的所谓互联网大厂里,除了百度宣称要在下个月推出“文心一言”的产品(从目前的模型规模来看并不被看好),其他大厂毫无任何动作,这还是当年那个风起云涌的互联网时代吗?中国的创业创新力量都去了哪里?

4、据业内人士称, ChatGPT 的参数高达175B,除了最头部的大厂之外,其他公司都训练不起。即使是百度,在目前阶段咬咬牙能跟上,往后很可能也跟不上了。175B参数的模型,意味着使用float8这样精度的参数,用Nvidia 的V100来做推理(32GB),要5块卡才可以。训练一个175B参数的模型,需要1万块A100/H100这样的显卡。而最便宜的40GB的A100,目前大概是1万美元一块,意味着要先拿1亿美金出来买显卡。这还没有算配套的 CPU ,数据中心的其他设备,电力成本等,每年的投入可能高达10亿美金。另外很重要的一点是, NVidia 旗舰线的A100和H100现在对大陆是禁运的。中国如何才能突破这一新的技术封锁,举国体制的优势是否能够再次得到有效发挥?

5、目前,市面上不少“淘金者”除了通过卖账号牟利之外,还通过调用ChatGPT的API,利用小程序、公众号等端口,向用户提供昂贵的收费服务,以“付费提问”的方式牟利,更有甚者,打着ChatGPT的旗号,通过调用一些“人工智障”的问答机器人端口,骗取利益,如此混乱的商业环境,如何产生真正的创新?

无论如何,还是衷心希望我们能够早日造出中国版的ChatGPT。

版权声明: 发表于 2023年12月29日 pm10:08。
转载请注明:ChatGPT引发怪现状之五问 | ChatGPT资源导航

相关文章