隨著风波的平息,深视科技进入了一段难得的平稳期。
公司的api调用量每天都在刷新纪录,现金流像涓涓细流匯成江河般涌入公司帐户。
一切看起来都在轨道上高速运转。
华清嘉园工作室,
陈阳把自己关了起来。
他正在进行一项实验,那就是训练超越这个时代的大语言模型。
陈阳给这场行动取了一个代號:巴別塔。
深夜,客厅。
空调开到18度,陈阳坐在三台並联的显示器前,屏幕上密密麻麻的代码与日誌在流动。
桌上散落著七八个空咖啡杯、三盒吃空的外卖、一堆揉皱的草稿纸。
他已经在这把椅子上坐了十四个小时,眼睛布满血丝,下巴冒出了青色的胡茬。
旁边的写字板上画了一张架构图,密密麻麻的线条和方块,像一张蜘蛛网。
程序早就写好了。
那套他高中暑假就开始设计出来的架构,代码已经调试完毕,理论上完全可行。
但理论与实际能跑之间,隔著一道天堑。
就像你设计了一张火箭的图纸,画得再漂亮,也得真正发射一次才知道能不能上天。
这几天经过实际运行,这是陈阳优化后的第七版了!
“不对,还是不对。“
陈阳揉了揉发酸的眼睛,把第七版也刪掉了。
他靠在椅背上,盯著天花板发呆。
陈阳闭上眼睛,脑子里不断闪过各种画面。
突然,一个念头击中了他。
陈阳猛地坐直了身子。
抓起笔,在一张白纸上疯狂画起来。
“就是这个。“
他转向电脑,开始敲代码。
手指飞快地在键盘上跳动,屏幕上的字符像瀑布一样往下滚。
大模型预训练,说白了就是三个字:餵数据。
要把海量的文字塞进模型里,让它自己去学习语言的规律。
看得越多,学得越好,最后就能像人一样理解和生成文字。
听起来简单?
一点都不简单。
首先,数据从哪来?
陈阳花了快一年时间,让星城那边的团队爬取了整个维基百科、几百万篇新闻报导、上千万条论坛帖子、小说的片段,清洗、去重、格式化,最后整理出三套数据:
第一套,训练集,12。4gb。
这是餵给模型的课本,让它自己从海量文字里自学语言规律。
对,没错就是自己学习,模型一开始是一个什么都不知道的孩子。
然后通过海量数据以及算法反馈。逐渐从数据里面学习规律,最终找到答案。
第二套,验证集。