7 月 25 日消息,今年 2 月,谷歌宣布與 Reddit 達成一項新協議,Reddit 數據將用于訓練谷歌的 AI 模型,并在谷歌搜索結果中著重顯示 Reddit 結果。彭博社報道稱,這筆交易的金額約為 6000 萬美元。從那時起,Reddit 在谷歌搜索中的展示次數也大幅增加。
而最新消息稱,Reddit 已禁止其他搜索引擎檢索其網站內容。外媒 404 Media 最先報道了此行為,并指出 Reddit 已更新其 robots.txt文件(注:網站與爬蟲的協議文件),阻止所有機器人抓取網站的任何內容。
查詢 Reddit 網站的 robots.txt文件獲悉,該平臺稱“Reddit 相信開放的互聯網,但不相信濫用公共內容。”其“Disallow”選項設置為“/”,也就是禁止檢索網站根目錄下的所有文件。
該文件在今年 6 月首次更新,Reddit 解釋說,這一更改是由于“抓取 Reddit 內容的商業實體明顯增多并且內容被濫用”。
外媒 9To5Google 則稱,Bing、DuckDuckGo、Mojeek 和 Qwant 等搜索引擎都受到了影響,使用“site:reddit.com”搜索內容時,要么不顯示最新內容,要么不顯示完整的網站結果。

不過最新測試,Bing、DuckDuckGo 已重新顯示“site:reddit.com”搜索內容。

Reddit 發言人 Tim Rathschmidt 在給 The Verge 的一份聲明中表示:“這與我們最近與谷歌的合作完全無關。我們一直在與多個搜索引擎進行討論,但無法與所有人達成協議,因為有些人無法或不愿意就他們使用 Reddit 內容(包括他們對 AI 訓練的使用)作出可執行的承諾。”





京公網安備 11011402013531號