新闻网站使用“robots.txt”来阻止苹果公司为AI培训数据剪切其网站。

像Facebook和纽约时报这样的大型平台使用一个名为"robots.txt"的文件阻止果为人工智能培训目的扫描他们的网站. Apple 一直向出版商提供数百万美元来抓取他们的网站,目的是将数据用于 AI 训练。 robots.txt 文件允许网站所有者表明他们不希望他们的网站被抓取,这表明许多新闻网站选择阻止 Apple Intelligence 访问他们的内容。

August 29, 2024
130 文章