仙侠小说
设置
阅读记录
首页
>
都市娱乐
>
重生08:游戏开发有手就行
>
第348页
重生08:游戏开发有手就行_第348页
“我想说的就这些了,很抱歉借用了这次imagenet大赛,希望大家谅解。”
黑洞等人整装,随后率先离开。
路过阿列克斯身边的时候,文韬看着一脸纠结的他,拍了拍他肩膀道。
“还在等啥呢?你不是都加入我们了吗?”
阿列克斯瞬间放下所有纠结,从亚马逊买的两块显卡也不要了,一脸崇拜的跟着文韬离开了会场。
第386章 历史级应用
文韬知道跟一群科研人员聊梦想可以,要谈公司层面实质性的合作找他们没用。
但是可以让他们回去之后跟自家CEO爆料一下黑洞在AI方面的领先距离,要抹平这一段距离全靠自己发展可不容易,而openAI的想法,更是只有CEO们才知道其价值在哪里。
GPT-4在SAT阅读考试中排名前7%,在SAT数学考试中排名前11%,以高分通过了所有阿美莉卡SAT的科目考试,也就是阿美莉卡的高考。
历史上openAI的成立,是由一群反人工智能大佬促成的。
14年,霍金说人工智能可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。
15年比尔盖茨也在网络上发言:如果我们能够很好地驾驭,机器能够为人类造福。但如果若干年后机器发展得足够智能,就将成为人类的心头大患。
而一向反人工智能的埃隆马斯克,也认为人工智能是人类生存的头号威胁。
2015年,硅谷的一顿晚宴上,大佬云集。
在基于“构建安全的人工智能以造福人类”的愿景下,他们决定创建一个非营利性机构,也就是openAI。
创建openAI的初衷,是知道人工智能的发展不可阻挡后,要把发展放在监管下。
另一方面,只有尽可能多的人拥有人工智能的力量,才能有效的阻止未来人工智能的威胁。
所以,最初的openAI愿景十分好,代码开源、专利向公众开放、与其他机构自由合作。
在大佬们眼中,资金和人才都相对简单,10亿美刀的初始资金很快到账,人才也是高薪聘请。
openAI从成立开始,就专注于一件事情上,那就是教人工智能打游戏。
16年竞争对手谷歌则开发了“阿尔法go”,在围棋上战胜了李世石。
openAI一看谷歌靠着战胜围棋冠军引爆了人工智能的热潮,成为了全球热议的焦点。
那我也不甘示弱啊!
于是在17年的第七届DOTA2国际邀请赛上,openAI与人类顶尖DOTA2职业玩家Dendi中路1v1单挑,仅仅只用了10分钟就把职业选手打败。
马斯克第一时间在个人社交平台上表示,“openAI第一次打败了世界上顶级电竞选手,这比围棋难多了。”
一时间AI攻陷电竞的言论四起,openAI也被神化的不可一世。
只不过同年,谷歌发表了著名的重磅论文“attention is all you need”,提出了transform架构(也就是gpt中的t)。不但大幅降低了语言模型的训练时长,而且其模型具有可解释性。
这是AI历史上又一革命性的架构。
随后,谣传马斯克从openAI挖走了一些研究人员,去做特斯拉的自动驾驶项目,让openAI其他人十分不满,之后马斯克退出了openAI。
马斯克退出后不到一年,openAI发表了论文“Improving Language Understanding by Generative Pre-training”,推出了基于transformer架构的、具有1.17亿个参数的GPT-1模型。
同时openAI分为两个实体:非营利的openAI Inc.和营利的openAI LP,并向员工分配股权,然后拉到了微软的10亿美刀投资,把GPT-2模型参数从1.17亿提高到了15亿,并且在一年后把GPT-3模型的参数拉到了1750亿。
无论从规模还是能力上,openAI都有了质的飞跃,也认识到语言模型的能力与规模成正比。
而GPT-3也是openAI第一款商业产品,提供付费接口。
openAI用两年时间,微调出了了GPT-3.5,然后在22年底,基于GPT-3.5和强化学习下,chatGPT诞生了。
这是人类历史上用户增长速度最快的消费级应用,一个应用从0到100万用户需要多久?
奈飞用了3年半,推特用了2年,脸书用了10个月,ins用了一坤月,而chatGPT用了5天……
而2个月后,chatGPT的月活用户超过了1亿,不是注册人数,是月活跃用户!与之相比,微信的注册量达到1亿用了433天。
接下来,微软追加100亿美刀,并将GPT整合到office系列应用以及必应搜索中,对谷歌正式宣战。
23年2月,谷歌匆忙推出类似应用bard,但发布会上犯了一个事实性错误,导致股价一夜蒸发1000亿美刀。
3月14日,openAI乘胜追击,发布了GPT-4。
3月16日,度娘发布类似应用文心一言。
自此,AI大战开始。
……
由于对于AI的浓烈兴趣,文韬在重生之前对于AI是非常关注的。
甚至以外行人十分简单就能理解的方式理解了GPT的底层原理。
都知道它基于深度学习和神经网络,还有transformer模型,但实际理解起来,就是“给出上文,生成下文”。
比如给出一个“今天”,chatGPT就可能会接上“今天晚上吃红烧肉”。
给出“今天星期几?”
它就会在大量的数据中告诉你今天星期一。
当然,仅仅给出“今天”,GPT给出的下文肯定是不唯一的,可能是“今天华国获得世界杯冠军”,也可能是“今天阿美莉卡鸡蛋涨价”,甚至“今天外星人攻打地球”。
究竟GPT是如何选择的呢?
GPT会给出不同答案的概率,最后按照概率分布给出随机的答案,概率越高出现的频率也会越高。概率分布会根据之后强化学习阶段的不同用户反馈来不断进行优化。
越是具体的上文,GPT就能给出越是具体的下文。比如问它“给我写一本游戏开发小说”。
它可能根据相关概率中最高的一些答案,给你杂糅一大堆莫名其妙的内容。
但如果你问它“给我写一本小说,主角重生08年,在高中时代开发了植物大战僵尸,使用了unity引擎……”
然后,它真的可能给你一些满意度较高的内容。
只不过,真要让AI写出符合作者心意的内容,短时间内很难办到。
上一章
目录
下一章
阅读设置
×
字体大小:
小 (17px)
中 (20px)
大 (24px)
特大 (28px)
超大 (30px)
背景颜色:
浅灰
淡绿
米黄
淡蓝
浅粉
浅绿
咖啡
灰色
黑夜
确定