<td id="f38gd"></td>

<span id="f38gd"><small id="f38gd"><xmp id="f38gd"></xmp></small></span><label id="f38gd"></label>

  • 国产欧美VA天堂在线观看视频,亚洲日韩中文字幕在线播放,中文字幕AV伊人AV无码AV,人妻 色综合网站,少妇精品揄拍高潮少妇,国产乱人伦AV在线A麻豆,国产成人精选在线不卡网站,国产乱码精品一区二区三区动漫
    首頁 資訊 國內 聚焦 教育 關注 熱點 要聞 民生1+1 國內

    您的位置:首頁>資訊 > 教育 >

    爆火的“GPT-4 MIT本科數學滿分”論文作弊,數據集本身有問題 全球熱議

    來源:騰訊網    發布時間:2023-06-18 14:17:31

    機器之心報道

    編輯:蛋醬


    (相關資料圖)

    結論不應該如此被夸大。

    這兩天,一篇關于 GPT-4 滿分通過 MIT EECS 和數學本科考試的論文在推特上瘋傳。

    論文地址:https://arxiv.org/pdf/2306.08997.pdf

    簡單概括,一個來自 MIT 的研究團隊從自己學校的數學、電氣工程和計算機科學 (EECS) 專業的課程問題、期中考試和期末考試中,整理出了一個包含 4550 個問題和解決方案的綜合數據集。

    然后,研究團隊讓各種大語言模型去完成這個數據集的題目,結果太嚇人:GPT-3.5 能做對 1/3,GPT-4 幾乎滿分通過。

    論文作者表示,提升模型表現主要靠「四件套」:Few-shot learning、CoT、Self-critique、Expert。

    就像上表中所示,加持 GPT-4 的手法越多,模型的答題正確率就越高。原始的 GPT-4 本來就能拿到 90% 的正確率得分,一番運作之后,甚至直接拿到滿分。

    但大部分討論得很激烈的網友可能沒注意到,這個分數本身就是用 GPT-4 打的……

    三位同樣來自 MIT 的學生第一時間發現了這篇論文,作為險些被 GPT-4 趕超的群體,他們想立即領會一下爆款論文的方法論。

    研究了一小時后,他們對該論文的方法產生了懷疑。

    兩小時后,他們意識到:數據集本身有問題。

    盡管原論文的作者宣稱已手動審查了發布的數據集質量,但三人發現,有明顯的跡象表明,測試數據集的很大一部分被污染了。

    也就是說,模型就像一個學生在考試前被告知了答案,這是赤裸裸的「作弊」。

    產生質疑后,他們立即著手在數據集上完成了零樣本 GPT-4 的運行,并對數據的前 30% 進行了手動評分,結果與原論文相差甚遠,應該說是一個天上、一個地下。

    「作為麻省理工學院的本科生,至少根據我們的經驗,這個測試集并不能準確地代表在麻省理工學院獲得 EECS 學位所需的理解廣度和深度。」三人在博客中這么寫道。

    最新進展:零樣本 GPT-4 的準確率能達到 62.5% 了,但還是和論文里宣稱的 90% 差很多。

    三人還質疑了「過度宣傳」的風潮:「這些論文通常在任何合法的同行評審之前就被上傳到 Arxiv,并在 Twitter 上廣泛分享。在這種情況下,可能會傳播不良信息,并為未來的工作樹立一個糟糕的先例。」

    「深度學習」斗士 Gary Marcus 也不出意料地聲援了這波質疑:

    同時,三人也在博客中指出一點:《Exploring the MIT Mathematics and EECS Curriculum Using Large Language Models》論文上列出的幾個作者都是本科生研究人員,讓這些人對工作中出現的任何失誤負責是不合適的。相反,責任應該在指導作者身上 —— 他們才是被期望確保工作符合其領域內公共學術標準的人。

    接下來讓我們看下,這篇「爆火」論文都有哪些問題。

    數據集到底有什么問題?

    首先,從原論文中得知,研究者收集的數據集包含獲得 MIT 學位考試所需的 30 門數學和 EECS 課程的 4550 個問題和相應的解決方案,涵蓋核心課程和選修課程。

    論文中寫道:「在沒有圖像和有解決方案的問題中隨機選擇了 288 個問題的測試集。」

    這個數據集(不包括用于微調開源 LLM 的訓練集)隨著論文的公開也被發布到 GitHub 上,同時發布的還有用于生成報告的測試性能的代碼。然而,作者 Drori 教授在最近的一次提交中已經將其刪除。

    經過檢查、對比,三人確信這個被刪掉的文件代表了論文中分析的測試集,因為評估代碼中的所有數據的文件路徑都指向它,沒有提供任何修改其內容的代碼,而且它在最初發布的 GitHub 倉庫中是可用的。此外,該文件滿足了論文中規定的所有模式要求(行數等)。這些證據似乎非常有力地支持了下面的所有主張,

    「但我們要承認,這個文件有可能被換成了一個用于測試的不同文件。如果是這樣的話,我們認為證明的責任在于作者公開發布這個數據和用它做的所有分析。」

    那么,被掩蓋的問題究竟是什么呢?三人給出了自己的分析。

    無法解決的問題(約占測試集的 4%)

    鑒于原論文表示,任何形式的 GPT-4 都能在測試集上產生一個完美的分數,三人開始檢查個別數據點。他們很快就發現,根本不可能有滿分,因為數據集中至少有 10 個問題是無法用所提供的信息解決的,另外幾個問題在這種情況下根本就不是有效的問題。

    像這種「有問題的問題」,至少占據了測試集的 4%。

    在一個擴展的 excel 文檔里,三人對已經發現有問題的數據集例子進行了注釋。「紅色」代表用提供的信息無法解決的問題,「黃色」代表一部分不太合理的問題。

    頁面地址:https://docs.google.com/spreadsheets/d/1FZ58hu-lZR-e70WP3ZPNjp9EK_4RgrQvQfsvjthQh_Y/edit?usp=sharing

    重復的問題(約占測試集的 5%)

    使用文本相似性檢測,三人發現有 14 個問題(7 對)在 288 個問題的測試集中是重復的,在這些情況下,問題串之間的唯一區別是極小的字符級噪音,甚至完全相同。

    鑒于這些無法解決的問題,GPT-4 能夠通過任何方式獲得 100% 的準確率,也是難以置信。要么是在某個階段出現了答案泄漏到 prompt 中,要么是問題沒有被正確打分。

    這些初步的發現促使他們從少樣本示例開始進一步調查(如果模型在零樣本正確率方面失敗的話),最終發現,既有解題信息的泄露,也有用于對模型輸出進行分級的方法問題。具體情況如下:

    少樣本示例中的信息泄露

    值得注意的是,原論文中還提到了「少樣本示例」這個事。

    簡而言之,論文對 OpenAI 嵌入的數據集內的類似問題進行余弦相似度搜索,并將這些問題和解決方案作為額外的上下文納入模型的 prompt,幫助模型解決問題。

    這個方法本身是沒問題的,只要這些示例與有關問題有足夠的差異,且避免暴露不公平的信息。

    只是隨機掃描已發布的測試數據集時,三人注意到一些奇怪的事情:許多提供給模型的「少樣本示例」與問題本身幾乎一字不差。

    為了進一步了解這一點,他們寫了一個簡單的腳本,查看了所提供的幾個示例的問題陳述和所列出的問題之間的重疊情況,并繪出了直方圖:

    許多提供的少樣本與問題本身幾乎相同,這意味著模型得到的是問題的答案或與問題非常相似的問題。通常情況下,這來自于大量的共享背景的多環節問題的重復。

    他們認為,為了正確評估 GPT 的解題能力,多環節問題的其他部分應該被完全排除在某一問題的少樣本示例之外。事實上,他們發現這些多環節問題的解決方案,往往直接提到或給出了模型被要求解決的另一部分問題的答案。

    不僅如此,在對這些數據的挖掘中,他們還發現了整個問題被重復的樣本。比如:

    在這兩種情況下,答案是完全相同的。很難說不算信息泄漏了。

    GPT-4 自動打分,有問題

    此外,三人還在原論文開源的打分機制中發現了問題:

    在代碼中,能看出流程上處理分級存在嚴重的問題:論文是用 GPT-4 去評估檢查的,包括 a)原始問題,b)解決方案,c)GPT 自己的答案,作為分級 prompt 中的參數。

    在更多的技術領域,GPT 更有可能出現隱性誤解,這種自動評分更有可能出現「自我欺騙」的結果。

    此外,雖然 prompt 級聯是最近許多 GPT 論文中常見的技術,但這里有大量數據泄漏的可能性。每一級不僅提供基于 ground truth 的二元信息,而且還在繼續 prompt,直到達到正確答案。

    盡管這些創建的 prompt 并沒有看到實際的答案,但重新 prompt 直到達到正確答案的形式已經足夠了,尤其是在占測試集 16% 的多選題中,無限次的嘗試(幾乎)保證了正確答案一定會出現。

    這就好比有人拿著答題紙,告訴正在考試的學生答得對不對,一直提示到學生得到正確答案。

    總結

    在博客的最后,三位這樣寫道:

    這篇論文道出了最近人工智能領域研究的一個更大趨勢。隨著該領域的進展越來越快,新發現的時間節奏似乎在縮短,這往往伴隨著捷徑。一個特別令人擔憂的趨勢是使用像 GPT-4 這樣基于語言的模型來評估一個模型的準確性的技術。

    雖然是一個有用的工具,但它的結論絕不應該被夸大,也不應該被當作 ground truth。最近的工作表明,如果沒有準確的 ground truth 信息,GPT-4 評估器就不能可靠地用于驗證。至少,應該選擇一個隨機的數據集子集,將 GPT-4 的性能與人類的評估進行比較。語言模型還不能被當作產生 ground truth 的神諭。

    此外,在使用數據之前,無論是用于訓練、推理、基準測試還是其他方面,重新評估每一個數據點并進行基本的檢查是極其重要的。鑒于有關數據集的規模較小,簡單的人工驗證很容易在工作范圍內完成。?

    我們的批評主要是針對這項研究的方法和嚴謹性,而不是針對其內容。我們對大型語言模型實際解決麻省理工學院課程的能力沒有任何意見,只是認為本文未能以科學嚴謹的方式證明這一點。

    關鍵詞:

    頻道精選

    首頁 | 城市快報 | 國內資訊 | 教育播報 | 在線訪談 | 本網原創 | 娛樂看點

    Copyright @2008-2018 經貿網 版權所有 皖ICP備2022009963號-11
    本站點信息未經允許不得復制或鏡像 聯系郵箱:39 60 29 14 2 @qq.com

    主站蜘蛛池模板: 色综合久久成人综合网| 一二三四日本无吗| 亚洲日韩精品福利| 欧美老少欢交另类| 亚洲中文字幕无码一久久区| 成人午夜无人区一区二区| 丰满少妇女裸体BBw| 亚洲国产日韩不卡综合| 国产原创精品国产专区 | 中文字幕无码专区不卡在线| 97成人精品国语自产拍| 久久久久精品国产四虎2021| 国产精品视频一区二区三区无码 | 亚洲A∨国产AV综合AV| 久久国产精品网| 思思越碰国产综合| 中国极品少妇videossexhd| 久久综合九色综合97欧美| 亚洲区色欧美另类图片| 人妻丰满av无码中文字幕| 国产一区二区三区精品视频| 亚洲 欧洲 综合 另类| 一区二区三区国产亚洲网站| 天天摸夜夜摸夜夜狠狠添| 色狠狠一区二区三区香蕉| 亚洲香蕉视频天天爽| 爽到憋不住潮喷大喷水视频在线| 久久分类免费视频| 超碰人人看人人爱| 国产精品白丝av网站| 国产精品黄色片在线观看| 无码GOGO大胆国模艺术| 国产精品自在在线观看| AA免费观看的1000部电影| 中文字幕一级大片| 亚洲欧美视频在线观看| 亚欧洲乱码视频在线观看| 色AV色婷婷66人妻久久久| 日产乱码一二三区别视频| 久久久久亚洲av成人人电影| 国产av午夜精品福利|