Scrapy:根据下载图像的网址,从下载的图像中创建文件夹结构

2024-03-20

我有一系列定义网站结构的链接。从这些链接下载图像时,我想同时将下载的图像放置在类似于网站结构的文件夹结构中,而不仅仅是重命名它(如中所回答)Scrapy图片下载如何使用自定义文件名 https://stackoverflow.com/questions/6194041/scrapy-image-download-how-to-use-custom-filename)

我的代码是这样的:

class MyImagesPipeline(ImagesPipeline):
    """Custom image pipeline to rename images as they are being downloaded"""
    page_url=None
    def image_key(self, url):
        page_url=self.page_url
        image_guid = url.split('/')[-1]
        return '%s/%s/%s' % (page_url,image_guid.split('_')[0],image_guid)

    def get_media_requests(self, item, info):
        #http://store.abc.com/b/n/s/m
        os.system('mkdir '+item['sku'][0].encode('ascii','ignore'))
        self.page_url = urlparse(item['start_url']).path #I store the parent page's url in start_url Field
        for image_url in item['image_urls']:
            yield Request(image_url)

它创建了所需的文件夹结构,但是当我深入了解文件夹时,我发现文件已在文件夹中移位。

我怀疑这种情况正在发生,因为“get_media_requests”和“image_key”函数可能会异步执行,因此“page_url”的值在“image_key”函数使用之前会发生变化。


您是绝对正确的,异步项目处理可以防止通过使用类变量self管道内。您必须在每个请求中存储您的路径并覆盖更多方法(未经测试):

def image_key(self, url, page_url):
    image_guid = url.split('/')[-1]
    return '%s/%s/%s' % (page_url, image_guid.split('_')[0], image_guid)

def get_media_requests(self, item, info):
    for image_url in item['image_urls']:
        yield Request(image_url, meta=dict(page_url=urlparse(item['start_url']).path))

def get_images(self, response, request, info):
    key = self.image_key(request.url, request.meta.get('page_url'))
    ...

def media_to_download(self, request, info):
    ...
    key = self.image_key(request.url, request.meta.get('page_url'))
    ...

def media_downloaded(self, response, request, info):
    ...
    try:
        key = self.image_key(request.url, request.meta.get('page_url'))
    ...
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Scrapy:根据下载图像的网址,从下载的图像中创建文件夹结构 的相关文章

随机推荐