日韩欧美自拍偷拍,色偷偷色偷偷色偷偷在线视频,亚洲婷婷在线,www.欧美精品

您當前的位置 :環球傳媒網>資訊 > 正文
每日快看:人類秒懂,AI崩潰:一個簡單測試,就讓GPT-5、Gemini等頂級模型集體“翻車”
2025-09-10 12:03:28 來源:量子位 編輯:

VYU團隊 投稿


(資料圖片僅供參考)

量子位 | 公眾號 QbitAI

人類一眼就能看懂的文字,AI居然全軍覆沒。

來自A*STAR、NUS、NTU、清華、南開等機構的研究團隊,最近有個新發現:

不管是OpenAI的GPT-5、GPT-4o,還是谷歌Gemini、Anthropic Claude,甚至國內的Qwen、LLaVA,在面對一些“看得見但讀不懂”的文字時,全都表現極差,直接“翻車”。

先切再疊,AI束手無策

VYU團隊設計了兩個小實驗:

1、選取了100條四字成語,把每個漢字橫切、豎切、斜切,再把碎片重新拼接。

人類讀起來毫無壓力,AI卻幾乎全錯。

2、挑選了100個八字母英文單詞,把前后兩半分別用紅色和綠色渲染,再疊加在一起。

對人類來說,這幾乎不構成挑戰——因為我們的視覺系統對紅/綠通道異常敏感,大腦能自動分離顏色,然后拼出完整的單詞。

但對AI模型來說,結果卻完全不同:

即使是最新發布的大模型,在這些問題上也屢屢碰壁。

無論是Gemini 2.5 Pro:

還是Kimi 2(Switch to 1.5 for visual understanding) :

(PS:Kimi 2最終推測的答案是hardline)

又或者Qwen3-Max-Preview:

全都得不到正確的結果。

AI不懂符號分割與組合

對該現象進行分析,VYU團隊認為,根本原因在于AI靠模式匹配,不懂文字結構。

人類之所以能“讀懂”,是因為我們依賴結構先驗——知道漢字由偏旁部首組成,知道英文是按字母組合的。

于是,只要文字稍作擾動(但人類依舊能看懂),AI就會徹底崩潰。

這個問題之所以值得研究,是因為它關系到AI落地的核心挑戰:

  • 在歷史文獻與科學筆記整理中,AI無法像人類一樣從殘缺文字中恢復含義。

  • 在安全場景里,攻擊者甚至可以利用這種“盲點”繞過AI審查。

VYU團隊認為,要想讓AI擁有類似人類的韌性,必須重新思考VLMs如何整合視覺與文本——

關鍵詞: 崩潰 團隊 模型 測試 Kimi Qwen 人類

相關閱讀
分享到:
版權和免責申明

凡注有"環球傳媒網"或電頭為"環球傳媒網"的稿件,均為環球傳媒網獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網",并保留"環球傳媒網"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環球傳媒網-重新發現生活版權所有 聯系郵箱:8553 591@qq.com
主站蜘蛛池模板: 兴山县| 深泽县| 黄平县| 威海市| 崇仁县| 固始县| 凯里市| 浦北县| 革吉县| 泸溪县| 垦利县| 房产| 黔江区| 九江市| 景谷| 辰溪县| 葫芦岛市| 吉木乃县| 安阳县| 桦南县| 道孚县| 肇州县| 五大连池市| 兴化市| 西和县| 黑山县| 德兴市| 连江县| 北流市| 沈丘县| 新昌县| 长垣县| 阿城市| 江阴市| 五原县| 循化| 南木林县| 威信县| 英德市| 湖口县| 德令哈市|