我需要从网站下载一些(~200)图像。我可以在它的源代码中看到图像的 url。如何创建访问每个 url 并保存图像的自动化脚本?

您绝对可以编写一个简短的脚本来获取页面,提取 URL,然后将它们保存到磁盘。
但是,一个更简单的选择可能是可用于多个图像下载的众多 Firefox 插件之一。查看 Firefox Addons 目录,看看是否有任何适合您的需求(机会是愿意的)。
也就是说,我已经为各种各样的事情编写了数百个这样的脚本,所以我个人只是将一个小的 PHP 脚本放在一起。对于不熟悉正则表达式的人来说,这可能是一个挑战。
本质上,只需使用 CURL 抓取页面,使用 preg_match_all() 与特定 URL 格式的正则表达式匹配,然后循环匹配并保存图像。
搜索用于提取 URL 的 CURL 请求和正则表达式示例,您会发现大量信息。
从网站下载部分或全部图像非常简单。你有几个解决方案可以做到这一点。
使用 Chrome 扩展程序。您可以在 Chrome 扩展市场中搜索一些扩展,例如图像下载器或任何东西。选择其中一个并试一试。基本上,一些扩展程序可以抓取所有图像并让您批量下载它们。



2. 在您的 Win/Mac 计算机上使用批量图像下载软件。该软件可以让您通过输入 URL 来下载图像。但是,您需要为此付费,因为它是共享软件。
3.如果不想使用扩展或者不使用任何软件,可以试试图片下载在线工具。 Imgdownloader 可以帮助您从任何网站下载图像。更重要的是,它也是 Pinterest 和 Instagram 图像/视频下载器。您可以批量下载该网站上的图像、视频。



4. 试试 AnySaver,这款 Android 应用程序可用于从 URL、Instagram 和 Pinterest 下载所有图像。