前段時間,微軟搞了個烏龍:隆重地開源了 WizardLM-2,又在不久后撤回得干干凈凈。
據(jù)現(xiàn)在可以查到的 WizardLM-2 發(fā)布信息,這是一個「真正媲美 GPT-4」的開源大模型,在復(fù)雜聊天、多語言、推理和代理方面的性能得到了提高。
該系列包括三個模型:WizardLM-2 8x22B、WizardLM-2 70B 和 WizardLM-2 7B。其中:
- WizardLM-2 8x22B 是最先進(jìn)的模型,也是對高度復(fù)雜任務(wù)進(jìn)行內(nèi)部評估后得出的最佳開源 LLM。
- WizardLM-2 70B 具備頂級推理能力,是同等規(guī)模的首選;
- WizardLM-2 7B 是速度最快的,其性能可與現(xiàn)有的 10 倍大的開源領(lǐng)先模型相媲美。
此外,通過人類偏好評估,WizardLM-28x22B 的能力「只是稍微落后于 GPT-4-1106 預(yù)覽版,但明顯強(qiáng)于 CommandRPlus 和 GPT4-0314。」
它會和 LLaMa 3 一樣,成為又一開源里程碑嗎?
當(dāng)大家忙著下載模型的時候,團(tuán)隊(duì)卻突然撤回了一切:博客、GitHub、HuggingFace 全部 404。
圖源:https://wizardlm.github.io/WizardLM2/
團(tuán)隊(duì)的解釋是:
所有 Huggingface 的朋友們,大家好!很抱歉,我們刪除了模型。我們已經(jīng)有一段時間沒有發(fā)布幾個月前的模型了,所以我們現(xiàn)在不熟悉新的發(fā)布流程:我們不小心遺漏了模型發(fā)布流程中的一個必要項(xiàng)目 — 毒性測試。這是目前所有新模型都需要完成的一個步驟。
我們目前正在快速完成這項(xiàng)測試,然后將盡快重新發(fā)布我們的模型。不用擔(dān)心,感謝關(guān)心和理解。
但 AI 社區(qū)對 WizardLM-2 的關(guān)注和討論沒有停止,疑點(diǎn)有幾個:
第一,被刪掉的開源項(xiàng)目不只是 WizardLM-2,該團(tuán)隊(duì)所有的 Wizard 系列工作都不見了,包括此前的 WizardMath 和 WizardCoder。
