手机浏览器扫描二维码访问
相比效果显著,非常出色的老虎算法,移动端优化排序算法的效果要稍差一些。
因而孟繁岐并没有急着推动上线测试,而是等待结合AI语言解释模型的那一个更新准备一起推动。
目前针对语言问题所采用的通常是循环神经网络(RNN)和长短期记忆办法(LSTM),这两个工作都是上个世纪末的老办法了。
这两种方法简明好用,因而一直兴盛到2017年左右。
直到Transformer,也就是ChatGPT的T方法出现。
通常来说,大家都认为Transformer方法之所以能够迅速取代RNN和LSTM,主要是因为它更方便并行进行。
在多个设备上容易做到并行,这件事最核心的意义便是让规模庞大的版本成为可能,这也为后来ChatGPT这样的究极巨无霸模型奠定了基础。
“其实老版的RNN也有办法可以把并行做得很好,领域内对这件事有很大的误解。”孟繁岐皱着眉头思索道。
原本时间线,Transformer出来之后,所有人都放下了手头老方法的研究,拥抱了T方法。
可18年实际上有人专门做了RNN的高度并行,只可惜已经太迟了。
如果这个发现可以早一年的时间,可能RNN会长期作为T办法的竞争对手,我们也有可能看到ChatRNN的出现。
“早期的T方法需要很多数据,各种参数比较难调整,需要的计算能力也很庞大。”孟繁岐即便根据后来成熟的许多方法做了一个改进的版本,T方法在早期仍旧比较麻烦。
“好在谷歌的数据和算力都不缺,而我也比较熟悉各种经典的参数设置。”孟繁岐先写了一个雏形版本的T方法,进行了一下测试。
“不过,受限于现在显卡的显存,模型没有办法做得很大,除非我专门再去开发DeepSpeed这样的高级并行方式。”
在多张卡上训练模型,可能是为了追求速度,也可能是因为一张卡上放不下了。
其中,数据并行是最简单的,也就是不同的卡都在做同样的事情,每张卡上都会存放一个模型。
只不过输入的数据不一样,不同的卡做完运算之后,再一起整合更新。
就像是所有人都拿了同样的刀切不同的菜,最后把切好的食材堆在一起。
可有的时候,一张卡上根本就放不下模型,这样的情况就比较麻烦了。因为一个人根本拿不动这把刀了,需要多人协作。
可以把每一层拆分到不同的卡上,也可以把不同层分配到不同的卡上,如此一来,其实是用多卡实现了类似单卡训练的效果。
显然,前者会比后者容易非常多,前者只需要在不同卡上复制这些模型,分别读取数据做运算就好。
而后者则需要根据不同的情况和设置拆分合并,一个不小心就会搞错。
看了下谷歌大脑的服务器,里面有好几批2013款的GTX泰坦,这东西着实价值不菲。
考虑到当时的其他产品,6G的显存还是鹤立鸡群的。
比起孟繁岐自己重金购置的4G旗舰款,多出的2G显存,足够做很多其他的事情了。
用速度换显存,孟繁岐又做了许多参数和信息在Cpu和Gpu上反复转移的操作。
因为在正式入职之前,谷歌大脑分配给他的显卡就已经有16张泰坦,这部分卡拨给孟繁岐独享,随时都可以使用。
除此之外,还有32张在不同节点上的Gpu可以申请占用。
JULIET 无解 狂舞巔峰 夜之牙一 倾世狂妃:驯服腹黑王爷 巧克力女孩 华娱:导演的快乐就这么简单 忘记 娱乐:让你上台卖惨,没让你笑场 西有鹿鸣 我不花心,只是多情 你要不要跟我告白 黑天使 弹琴不谈情 冷暴力恐怖份子 来自宇宙的情书 荒岛求生后假千金爆火了 反派手挽手,八零抖一抖 桂林山水甲阳朔 莫名其妙爱上你
洛丞相府嫡小姐懦弱无能无才无德,姨娘庶女联手逼死了她。再次睁眸,已是21世纪头号王牌特工杀手,寒光乍起,听着那些寻事者大言不惭,清冷傲慢的声音响起夫人,何来的夫人,只不过是个姨娘而已!只是一日的功夫,丞相府的嫡小姐性情大变,无人知晓,这具身体里的灵魂已不再是原来的洛韵惜。深宫别院,豪门相府,阴谋不断都关系着洛韵惜,一个不想进入,却早已是棋中人。她不愿与谁为敌,她不愿交心与谁,却因为他,一次见面,二次见面,三次见面,四次见面,早已另眼相看,早已步入这血雨腥风...
她,21世纪的医女千沉漓,冷心冷情。她,齐钥国空有美貌的将军府傻女。当她成了她,此后一身红衣,手持袖针,救治天下有梦人,杀尽天下负心人。片段一某女嗤笑道呵,才貌双绝...
...
昔日没落家族公子归来纵横都市,土地上染的鲜血终将要鲜血来洗,他要做唯一的王者,物竞天择,唯我称王。...
前世她背负克亲克夫克子的名声沦为名门弃女,她在绝境中逆袭,脚踏仇人累累蚀骨满足而逝。今生她是金盆洗手的女大王和穷书生的幺女,被亲人捧在手心里宠成娇女。力大无穷炫富娘欺负珠珠的人不是被我用银子砸死就是一巴掌拍死!俊美无匹腹黑爹养不教父之过,欺负珠珠的人背后家族该倒了。坑货运气王大哥套麻袋拍板砖,我谁都...