![]()
花生,也叫“落花生”,地上開花、地下結(jié)果,這一常識(shí),原本人盡皆知。最近,一張“花生上樹”的海報(bào),引發(fā)網(wǎng)友熱議。最近,某電商平臺(tái)一款“四粒紅花生”產(chǎn)品的詳情頁中,宣傳海報(bào)出現(xiàn)明顯常識(shí)錯(cuò)誤:海報(bào)卻將其畫成懸掛枝頭的模樣,貽笑大方。該品牌之后回應(yīng),系因誤用了AI生成的圖片素材,已對相關(guān)頁面進(jìn)行修正并更新。
事實(shí)上,這已經(jīng)不是AI首次出現(xiàn)此類常識(shí)性錯(cuò)誤。2025年3月,某公司一則戶外廣告里,AI生成的模特出現(xiàn)了六指畫面;去年,OpenAI的Sora團(tuán)隊(duì)公布的一段AI生成視頻中,竟出現(xiàn)了用4條腿爬行的螞蟻,還出現(xiàn)了“玻璃杯剛被抬起,桌面就先出現(xiàn)玻璃碎片”等多種反常識(shí)場景。
如今AI的圖文與視頻創(chuàng)作能力已廣泛應(yīng)用于各個(gè)領(lǐng)域,部分網(wǎng)絡(luò)平臺(tái)大力鼓勵(lì)用戶使用AIGC技術(shù)創(chuàng)作視頻內(nèi)容;但在AI技術(shù)快速普及的背后,“常識(shí)性翻車”的頻發(fā)也讓人們不得不追問:看似“聰明”的AI,為何總是犯低級錯(cuò)誤?
AI犯錯(cuò)的根源,首先在于訓(xùn)練數(shù)據(jù)的偏見:當(dāng)下多數(shù)通用AI模型仍依賴互聯(lián)網(wǎng)數(shù)據(jù),而這些數(shù)據(jù)本身包含大量刻板印象或錯(cuò)誤信息,最終生成的內(nèi)容往往放大了人類的錯(cuò)誤認(rèn)知。
此外,當(dāng)下的AI雖擅長各類模式識(shí)別,能快速模仿圖像、文字的表面特征,卻缺乏對現(xiàn)實(shí)世界的感知與主動(dòng)實(shí)驗(yàn)?zāi)芰ΓM(jìn)而缺失因果推理能力,最終導(dǎo)致無法理解人類意圖,生成反常內(nèi)容。
AI的便捷性,讓部分人忽視了AI生成內(nèi)容還需嚴(yán)格的“人類審核”這道最后防線,正如網(wǎng)友調(diào)侃的“AI不識(shí)字,何必亂翻書”。部分企業(yè)為追求效率濫用AI,忽視人工把關(guān)環(huán)節(jié),最終需為這些低級錯(cuò)誤買單。有評論甚至就此對使用含AI生成錯(cuò)誤信息的企業(yè),其產(chǎn)品質(zhì)量也提出了疑問,可見AI的應(yīng)用并非小事。
“花生上樹”“六指模特”“四腿螞蟻”等AI生成的“怪物”,對人工智能發(fā)展來說既是技術(shù)漏洞,也是技術(shù)迭代中的“成長陣痛”。這也提示使用者:現(xiàn)階段,AI仍是工具,其價(jià)值高低取決于人類如何使用。在使用AI時(shí),需實(shí)現(xiàn)“技術(shù)工具”與“人類責(zé)任”的平衡,而創(chuàng)意、真實(shí)與倫理既是人類需堅(jiān)守的底線,也是AI無法替代的核心價(jià)值。





京公網(wǎng)安備 11011402013531號(hào)