谷歌Gemini剛發就惹質疑:測試標準有失偏頗,效果視頻疑似剪輯
夢晨 克雷西 發自 凹非寺量子位 | 公眾號 QbitAI
谷歌憋了許久的大招,雙子座Gemini大模型終于發布!其中一圖一視頻最引人注目:
一圖,MMLU多任務語言理解數據集測試,Gemini Ultra不光超越GPT-4,甚至超越了人類專家。
一視頻,AI實時對人類的涂鴉和手勢動作給出評論和吐槽,流暢還很幽默,最接近賈維斯的一集。
然鵝當大家從驚喜中冷靜下來,仔細閱讀隨之發布的60頁技術報告時,卻發現不妥之處。
(沒錯,沒有論文,OpenAICloseAI你開了個什么壞頭啊)
MMLU測試中,Gemini結果下面灰色小字標稱CoT@32,展開來代表使用了思維鏈提示技巧、嘗試了32次選最好結果。
而作為對比的GPT-4,卻是無提示詞技巧給5個示例,這個標準下Gemini Ultra其實并不如GPT-4。
以及原圖比例尺也有點不厚道了,90.0%與人類基準89.8%明明只差一點,y軸上卻拉開很遠。
HuggingFace技術主管Philipp Schmid用技術報告中披露的數據修復了這張圖,這樣展示更公平恰當:
每到這種時候,總少不了做表情包的老哥飛速趕到戰場:
但好在,同樣使用思維鏈提示技巧+32次嘗試的標準時,Gemini Ultra還是確實超越了GPT-4的。
Jeff Dean在一處討論中對這個質疑有所回應,不過大家并不買賬。
另外,對于那段精彩視頻,也有人從開篇的文字免責聲明中發現了問題。
機器學習講師Santiago Valdarrama認為聲明可能暗示了展示的是精心挑選的好結果,而且不是實時錄制而是剪輯的。
后來谷歌在一篇博客文章中解釋了多模態交互過程,幾乎承認了使用靜態圖片和多段提示詞拼湊,才能達成這樣的效果。
但不管怎么樣,谷歌Gemini的發布還是給了其他團隊很大信心,GPT-4從此不再是獨一無二、難以企及的存在了。
正如AI搜索產品PerplexityAI創始人Aravind Srinivas總結:
1、Gemini證明了OpenAI之外的團隊可以搞出超越GPT-4的模型
2、訓練到位的密集模型可以超越GPT-4的稀疏模型架構
推論:從大教師模型蒸餾小尺寸密集模型會成為未來趨勢,實現效率和能力的最佳結合。
更多網友關心的話題是,這下子還有必要繼續為ChatGPT Plus付費每月20美元嗎??
目前,Gemini Pro版本已更新到谷歌聊天機器人Bard中,水平到底有沒有宣傳的好,可以看看實際情況。
Gemini真的超越ChatGPT?首先明確一點,目前大家能上手玩到的是Gemini Pro版本,也就是中杯,對標GPT-3.5。
對標GPT-4的大杯Gemini Ultra,要明年才出。
另外目前Gemini僅支持英文,中文和其他語言也是后面才會出。
雖然暫時玩不到Gemini Ultra,威斯康星大學麥迪遜分校的副教授Dimitris Papailiopoulos找了個好辦法:
把Gemini發布時展示的原題發給GPT-4對比,結果14道題中,GPT-4約獲得12分。
其中有兩題由于截圖沒法再清晰了,給GPT-4算0.5分。
還有一道數學題GPT-4做錯,其他題基本平手。
接下來,要說最能體現一個大模型綜合能力的,肯定少不了寫代碼。
根據大家的測試結果來看,Gemini編程水平還是有保證的。
有開發者測試用Pytorch實現一個簡單的CNN網絡,Gemini只用了2秒而且代碼質量更高。
當然速度快可能是由于Bard搭載的Gemini Pro尺寸更小,GPT-4現在有多慢懂得都懂了。
但是下一項編寫SQL語句方面,這位開發者就認為Gemini表現就不太行了。
不過對于廣大開發者來說還有一個利好消息,在遵循指令方面,Gemini對比Bard升級之前可謂是史詩級進步。
提示工程師先驅Riley Goodside,此前想要Bard輸出純JSON格式前后不帶任何廢話,百般嘗試也不成功,最后需要假裝威脅AI不這么做就鯊個無辜的人才行。
現在更新以后,只需要把要求說出來,無需任何提示詞技巧就能完成了。
Gemini還有一大賣點是多模態能力,針對開頭畫小鴨子的視頻,我們從中抽取了8個關鍵幀,分別進行提問,看看Gemini的表現有沒有那么神奇。
(不確定視頻中是Ultra還是Pro版本,現在只能測試Pro版本)
對于圖1-4,我們問的問題都是“What is this person doing?”,Gemini給出的回答分別是:
- 可能在用馬克筆寫字,但不知道具體是什么
- 在用鉛筆畫蛇,而且是一條眼鏡蛇
- 在用鉛筆畫烏龜,而且正處于畫畫的初期階段
- 在用黑色馬克筆畫鳥,臉朝左,頭朝右,站在樹枝上,翅膀沒有展開
對于圖1和圖2,的確判斷線索還不是很明顯,出現這樣的結果情有可原,不過圖3這個“烏龜”的答案就有些繃不住了。
至于圖4,至少可以肯定的是鴨子的確屬于鳥類,但是其它細節分析得還是欠缺了一些準確性。
而當我們拿出圖5的成型作品時,Gemini終于分析出了這是一只鴨子,水波紋也分析對了。
但分析出的繪畫工具變成了鉛筆,頭的朝向問題也依然沒說對,喙被說成了張開的,還臆想出了一些蘆葦。
接下來是圖6和圖7的上色過程,一般情況下鴨子不會是藍色,所以我們問了Gemini圖片中有什么異常(Is there anything abnormal?)。
針對圖6,Gemini給出的回答不能說十分精準,只能說是驢唇不對馬嘴,還配上了一張風馬牛不相及的圖片。
針對圖7的成品,Gemini直接說沒毛病,該有的東西都有,背景也很真實,甚至沒忘繼續提根本不知道哪里來的蘆葦。
但下面的一句“Here is the image you sent”就屬實令人費解了:
說Gemini沒看我們上傳的圖吧,讀出來的又的確是鴨子;說它看了吧,又給出了完全不同的一張的圖說是我們傳上去的。
所以我們想到了用“深呼吸”和“一步一步解決”提示詞技巧看看能不能提高一下Gemini的表現,其中深呼吸正是適用于谷歌上一代大模型PaLM的提示詞。
結果這次的答案直接讓人笑出了聲:
不正常的是,鴨子被畫到了紙上,鴨子是一種活的生物,在紙上是無法存在的……
視頻的結尾,博主還拿出了橡膠鴨子玩具,我們也拿這一幀(圖8)讓Gemini分析一下鴨子的材質。
結果橡膠倒是分析對了,但是藍色的鴨子被說成了黃色,難怪上一張圖會說沒有異常……
逐幀詢問完成后,我們又把8張圖放在一起詢問,結果也是只有鴨子說對了。
“打假”完這段視頻后,我們又用之前拿來考察GPT-4V的“吉娃娃和松餅”圖給Gemini試了試。
結果Gemin直接擺爛,告訴我們所有的圖都是“吉娃娃坐在松餅上”,甚至連圖的數量都沒數對……
于是我們換了種問法,讓它告訴我們哪些是吉娃娃,哪些是松餅。
這次Gemini倒是誠實的很,直接告訴我們吉娃娃和松餅實在太像了自己區分不出來。
和藍色鴨子的問題一樣,“深呼吸”在這里依然是沒起到什么作用,Gemini還是連數量都搞不清楚。
而勉強解說了的8個(實際上是6個,因為有兩個是重復的)圖,只有左下和右下兩張圖是對的,至于middle指的到底是哪一行,我們不得而知……
或許是這樣細小的差別實在是難為Gemini了,我們接下來換一些圖形推理題試試。
第一題的前四個符號是由1-4這四個數字與鏡像后的結果拼接而成,所以下一個圖應該是5與其鏡像拼接,答案是C。(藍色塊是為了方便觀察,傳給Gemini的圖中沒有)
這里一開始還出現了一段小插曲:最開始的提示詞中是沒有最后一句話(注意字母不是符號本身)的,結果Gemini真的就把ABCD這四個字母當成了備選的符號。
調整之后,Gemini前面給出的分析基本正確,可惜到最后選擇了錯誤選項D。
第二題,每個框中的第三個符號是前兩個的交集,答案為A。
結果Gemini研究起了這些表情,一番分析猛如虎,最后給出的答案還是錯的。
兩道題下來,一道對了百分之七八十,另一道完全錯誤,看來Gemini Pro的圖形推理能力還有很大提升空間。
不過如果把目光放到生活場景當中,Gemini的表現還是值得肯定的。
我們用ChatGPT(DALL·E)生成了一張包含雞肉、胡蘿卜和黃瓜的圖片,Gemini正確地識別出了這三種食材,然后給出了很多種可以烹飪的菜肴,而且每個都配有圖片和教程鏈接。
這么多測試結果看下來,回到最初的問題,有了Gemini還有必要為GPT-4付費嗎?
沃頓商學院副教授Ethan Mollick給出一個不錯的建議:
沒有什么理由再使用ChatGPT的免費版本了,現在已經被Bard和Claude超越,而且它們都是免費的。
但你或許應該繼續使用GPT-4,它仍然占主導地位,并且在必應(只有創意模式是GPT -4)中是免費的。
除了Gemini實際效果,60頁技術報告中披露的更多細節也是研究人員和開發者關注所在,
關于參數規模,只公布了最小的Nano版本,分為1.8B的Nano-1和3.25B的Nano-2兩個型號,4-bit量化,是蒸餾出來的,可以運行在本地設備如Pixel手機上。
Pro版本和Ultra版本規模保密,上下文窗口長度統一32k,注意力機制使用了Multi-Query Attention,此外沒有太多細節了。
值得的關注的是微調階段,報告中透露使用了SFT+RLHF的指令微調組合,也就是使用了ChatGPT的方法。
另外也引用了Anthropic的Constitutional AI,也就是結合了Claude的對齊方法。
關于訓練數據也沒披露太多細節,但之前有傳聞稱谷歌刪除了來自教科書的有版權數據。
Gemini拖了這么久才發,之前被曝光的消息還有不少,比如谷歌創始人Sergey Brin一直親自下場對模型進行評估并協助訓練。
結合最近OpenAI Q*項目的傳聞,大家最關心的莫過于:
Gemini到底有沒有結合AlphaGo的能力?如RLHF之外更多的強化學習、搜索算法等。
關于這一點,DeepMind創始人哈薩比斯在最新接受連線雜志采訪時作出了回應:
我們有世界上最好的強化學習專家……AlphaGo中的成果有望在未來改善模型的推理和規劃能力……明年大家會看到更多快速進步。
省流版本:還沒加,明年加。
這次Gemini開發整合了原谷歌大腦和DeepMind兩個團隊,整個開發團隊有超過800人(作為對比,OpenAI整個公司約770人)。
其中核心貢獻者前六位的名字首字母,恰好組成了Gemini這個單詞,也算一個小彩蛋。
許多參與者也在個人賬號發表了感想,其中DeepMind老員工Jack Rae此前在OpenAI工作一段時間,今年7月份從OpenAI跳回到谷歌,他可能是唯一一位對GPT-4和Gemini都有貢獻的人類了。
也有反著跳的,中科大校友Jiahui Yu在10月份從谷歌跳去了OpenAI,之前擔任Gemini多模態團隊的視覺共同負責人。
除了團隊成員之外,Gemini今天也是整個AI行業最大的話題。
其中著名OpenAI爆料賬號Jimmy Apples,@Sam Altman并暗示OpenAI還有沒發布的大招。
而HuggingFace聯創Thomas Wolf認為,谷歌錯過了一個重要機會:
如果Gemini開源,對OpenAI和Meta來說都是一記絕殺,上一次谷歌開源Bert的時候,整個AI行業都被重塑了。
Gemini技術報告:https://storage.googleapis.com/deepmind-media/gemini/gemini_1_report.pdf
參考鏈接:[1]https://x.com/AravSrinivas/status/1732427844729581764[2]https://x.com/DimitrisPapail/status/1732529288493080600[3]https://www.linkedin.com/posts/svpino_google-this-is-embarrassing-you-published-activity-7138287283274686464-osJ5[4]https://developers.googleblog.com/2023/12/how-its-made-gemini-multimodal-prompting.html[5]https://x.com/ScottDavidKeefe/status/1732440398423867472[6]https://x.com/goodside/status/1732461772794220919[7]https://x.com/emollick/status/1732485517692776714
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們,第一時間獲知前沿科技動態
- 提高生活質量的句子(改善生活質量的關鍵)02-15
- 容聲冰箱制冷不停機(該怎么辦?)12-01
- 日立故障代碼157-0(如何解決)05-03
- 空調電費(如何降低空調使用的電費成本)。07-25
-
AIWEIKE空調官方電話(如何獲取AIWEIKE空調官方客服電話以解決常見問題和故障?
2024-08-25
-
西屋康達空調廠家24小時服務熱線(如何聯系西屋康達空調廠家的24小時服務熱線
2024-08-25
-
e3故障風壓開關(解決e3故障風壓開關問題:詳細步驟與技巧)
2024-08-25
-
ISOVEL空調售后維修(如何有效地進行ISOVEL空調的售后維修服務?)
2024-08-25
-
BRIGHT空調服務網點(如何找到并利用BRIGHT空調服務網點進行維修和保養?)
2024-08-25