• nodeJs + js 大文件分片上传


    简单的文件上传

    一、准备文件上传的条件:

    1、安装nodejs环境

    2、安装vue环境

    3、验证环境是否安装成功

    二、实现上传步骤

    1、前端部分使用 vue-cli 脚手架,搭建一个 demo 版本,能够实现简单交互:

    <template>
      <div id="app">
        <input type="file" @change="uploadFile"></button>
      </div>
    </template>

    2、安装 axios 实现与后端交互:

    import Axios from 'axios'
    
    const Server = Axios.create({
      baseURL: '/api'
    })
    
    export default Server

    3、后端使用 node-koa 框架:

    // index.js
    const Koa = require('koa');
    const router = require('koa-router')() // koa路由组件
    const fs = require('fs') // 文件组件
    const path = require('path') // 路径组件
    const koaBody = require('koa-body') //解析上传文件的插件
    const static = require('koa-static') // 访问服务器静态资源组件
    
    const uploadPath = path.join(__dirname, 'public/uploads') // 文件上传目录
    
    const app = new Koa(); // 实例化 koa
    
    // 定义静态资源访问规则
    app.use(static('public', {
      maxAge: 30 * 24 * 3600 * 1000 // 静态资源缓存时间 ms
    }))
    
    app.use(koaBody({
      multipart: true,
      formidable: {
    uploadDir: uploadPath, maxFileSize:
    10000 * 1024 * 1024 // 设置上传文件大小最大限制,默认20M } })) // 对于任何请求,app将调用该异步函数处理请求: app.use(async (ctx, next) => { console.log(`Process ${ctx.request.method} ${ctx.request.url}...`); ctx.set('Access-Control-Allow-Origin', '*');//*表示可以跨域任何域名都行 也可以填域名表示只接受某个域名 ctx.set('Access-Control-Allow-Headers', 'X-Requested-With,Content-Type,token');//可以支持的消息首部列表 ctx.set('Access-Control-Allow-Methods', 'PUT,POST,GET,DELETE,OPTIONS');//可以支持的提交方式 ctx.set('Content-Type', 'application/json;charset=utf-8');//请求头中定义的类型 if (ctx.request.method === 'OPTIONS') { ctx.response.status = 200 } try { await next(); } catch (err) { console.log(err, 'errmessage') ctx.response.status = err.statusCode || err.status || 500 ctx.response.body = { errcode: 500, msg: err.message } ctx.app.emit('error', err, ctx); } })

    4、前端实现上传请求:

    // vue
    export default {
      name: 'App',
      methods: {
        uploadFile(e) {
          const file = e.target.files[0]
          this.sendFile(file)    
        },
        sendFile(file) {
          let formdata = new FormData()
          formdata.append("file", file)
    
          this.$http({
            url: "/upload/file",
            method: "post",
            data: formdata,
            headers: { "Content-Type": "multipart/form-data" }
          }).then(({ data }) => {
            console.log(data, 'upload/file')
          })
        }
      }  
    }

    5、node 接收文件接口:

    router.post('/api/upload/file', function uploadFile(ctx) {
      const files = ctx.request.files
      const filePath = path.join(uploadPath, files.file.name)
    
      // 创建可读流
      const reader = fs.createReadStream(files['file']['path']);
      // 创建可写流
      const upStream = fs.createWriteStream(filePath);
      // 可读流通过管道写入可写流
      reader.pipe(upStream);
    
      ctx.response.body = {
        code: 0,
        url: path.join('http://localhost:3000/uploads', files.file.name),
        msg: '文件上传成功'
      }
    })

    以上全部过程就实现了一个简单的文件上传功能。

    这种实现方式上传功能对于小文件来说没什么问题,但当需求中碰到大文件的时候,能解决上传中遇到的各种问题,比如网速不好时、上传速度慢、断网情况、暂停上传、重复上传等问题。想要解决以上问题则需要优化前面的逻辑。

    分片上传

    1、分片逻辑如下:

    • 由于前端已有 Blob Api 能操作文件二进制,因此最核心逻辑就是前端运用 Blob Api 对大文件进行文件分片切割,将一个大文件切成一个个小文件,然后将这些分片文件一个个上传。
    • 现在的 http 请求基本是 1.1 版本,浏览器能够同时进行多个请求,这将用到一个叫 js 异步并发控制的处理逻辑。
    • 当前端将所有分片上传完成之后,前端再通知后端进行分片合并成文件。

    2、在进行文件分片处理之前,先介绍下 js 异步并发控制:

    function sendRequest(arr, max = 6, callback) {
      let i = 0 // 数组下标
      let fetchArr = [] // 正在执行的请求
    
      let toFetch = () => {
        // 如果异步任务都已开始执行,剩最后一组,则结束并发控制
        if (i === arr.length) {
          return Promise.resolve()
        }
    
        // 执行异步任务
        let it = fetch(arr[i++])
        // 添加异步事件的完成处理
        it.then(() => {
          fetchArr.splice(fetchArr.indexOf(it), 1)
        })
        fetchArr.push(it)
    
        let p = Promise.resolve()
        // 如果并发数达到最大数,则等其中一个异步任务完成再添加
        if (fetchArr.length >= max) {
          p = Promise.race(fetchArr)
        }
    
        // 执行递归
        return p.then(() => toFetch())
      }
    
      toFetch().then(() => 
        // 最后一组全部执行完再执行回调函数
        Promise.all(fetchArr).then(() => {
          callback()
        })
      )
    }

    js 异步并发控制的逻辑是:运用 Promise 功能,定义一个数组 fetchArr,每执行一个异步处理往 fetchArr 添加一个异步任务,当异步操作完成之后,则将当前异步任务从 fetchArr 删除,则当异步 fetchArr 数量没有达到最大数的时候,就一直往 fetchArr 添加,如果达到最大数量的时候,运用 Promise.race Api,每完成一个异步任务就再添加一个,当所有最后一个异步任务放进了 fetchArr 的时候,则执行 Promise.all,等全部完成之后则执行回调函数。

    上面这逻辑刚好适合大文件分片上传场景,将所有分片上传完成之后,执行回调请求后端合并分片。

    前端改造:

    1、定义一些全局参数:

    export default {
      name: 'App',
      data() {
        return {
          remainChunks: [], // 剩余切片
          isStop: false, // 暂停上传控制
          precent: 0, // 上传百分比
          uploadedChunkSize: 0, // 已完成上传的切片数
          chunkSize: 2 * 1024 * 1024 // 切片大小
        }
      }
    }

    2、文件分割方法:

    cutBlob(file) {
      const chunkArr = [] // 所有切片缓存数组
      const blobSlice = File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice // 切割Api不同浏览器分割处理
      const spark = new SparkMD5.ArrayBuffer() // 文件hash处理
      const chunkNums = Math.ceil(file.size / this.chunkSize) // 切片总数
    
      return new Promise((resolve, reject) => {
        const reader = new FileReader()
        reader.readAsArrayBuffer(file)
        reader.addEventListener('loadend', () => {
          const content = reader.result
    
          // 生成文件hash
          spark.append(content)
          const hash = spark.end()
    
          let startIndex = ''
          let endIndex = ''
          let contentItem = ''
    
          // 文件切割
          for(let i = 0; i < chunkNums; i++) {
            startIndex = i * this.chunkSize
            endIndex = startIndex + this.chunkSize
            endIndex > file.size && (endIndex = file.size)
    
            contentItem = blobSlice.call(file, startIndex, endIndex)
    
            chunkArr.push({
              index: i,
              hash,
              total: chunkNums,
              name: file.name,
              size: file.size,
              chunk: contentItem
            })
          }
          resolve({
            chunkArr,
            fileInfo: {
              hash,
              name: file.name,
              size: file.size
            }
          })
        })
        reader.addEventListener('error', function _error(err) {
          reject(err)
        })
      })
    }

    以上方式的处理逻辑:定义一个切片缓存数组,当文件进行分片之后,将缓存所有的分片信息、根据最大分片大小计算分片数量、计算整个文件的 hash (spark-md5) 值,这将意味着,只要文件内容不变,这 hash 值也将不变,这涉及到后面的秒传功能、然后进行文件分片。

     3、改造上传方法:

    async uploadFile(e) {
      const file = e.target.files[0]
      this.precent = 0
      this.uploadedChunkSize = 0
      // 如果文件大于分片大小5倍,则进行分片上传
      if (file.size < this.chunkSize * 5) {
        this.sendFile(file)
      } else {
        const chunkInfo = await this.cutBlob(file)
        this.remainChunks = chunkInfo.chunkArr
        this.fileInfo = chunkInfo.fileInfo
    
        this.mergeRequest()
      }
    }

     注意:以上代码中设置当文件大小大于分片大小的5倍进行分片上传。

    4、定义分片上传请求(sendRequest)和合并请求(chunkMerge):

    mergeRequest() {
      const chunks = this.remainChunks
      const fileInfo = this.fileInfo
      this.sendRequest(chunks, 6, () => {
        // 请求合并
        this.chunkMerge(fileInfo)
      })
    }

     5、分片请求将结合上面提到的 JS 异步并发控制:

    sendRequest(arr, max = 6, callback) {
      let fetchArr = []
    
      let toFetch = () => {
        if (this.isStop) {
          return Promise.reject('暂停上传')
        }
        if (!arr.length) {
          return Promise.resolve()
        }
    
        const chunkItem = arr.shift()
        const it = this.sendChunk(chunkItem)
        it.then(() => {
          fetchArr.splice(fetchArr.indexOf(it), 1)
        }, err => {
          this.isStop = true
          arr.unshift(chunkItem)
          Promise.reject(err)
        })
        fetchArr.push(it)
    
        let p = Promise.resolve()
        if (fetchArr.length >= max) {
          p = Promise.race(fetchArr)
        }
    
        return p.then(() => toFetch())
      }
    
      toFetch().then(() => {
        Promise.all(fetchArr).then(() => {
          callback()
        })
      }, err => {
        console.log(err)
      })
    }

     6、切片上传请求:

    sendChunk(item) {
      let formdata = new FormData()
      formdata.append("file", item.chunk)
      formdata.append("hash", item.hash)
      formdata.append("index", item.index)
      formdata.append("name", item.name)
    
      return this.$http({
        url: "/upload/snippet",
        method: "post",
        data: formdata,
        headers: { "Content-Type": "multipart/form-data" },
        onUploadProgress: (e) => {
          const { loaded, total } = e
          this.uploadedChunkSize += loaded < total ? 0 : +loaded
          this.uploadedChunkSize > item.size && (this.uploadedChunkSize = item.size)
    
          this.precent = (this.uploadedChunkSize / item.size).toFixed(2) * 1000 / 10
        }
      })
    }

     7、切片合并请求:

    chunkMerge(data) {
      this.$http({
        url: "/upload/merge",
        method: "post",
        data,
      }).then(res => {
        console.log(res.data)
      })
    }

    前端处理文件分片逻辑代码已完成

    后端处理

    后端部分就只新增两个接口:分片上传请求和分片合并请求:

    1、分片上传请求:

    router.post('/api/upload/snippet', function snippet(ctx) {
      let files = ctx.request.files
      const { index, hash } = ctx.request.body
    
      // 切片上传目录
      const chunksPath = path.join(uploadPath, hash, '/')
      // 切片文件
      const chunksFileName = chunksPath + hash + '-' + index
    
      if(!fs.existsSync(chunksPath)) {
        fs.mkdirSync(chunksPath)
      }
      // 秒传,如果切片已上传,则立即返回
      if (fs.existsSync(chunksFileName)) {
        ctx.response.body = {
          code: 0,
          msg: '切片上传完成'
        }
        return
      }
      // 创建可读流
      const reader = fs.createReadStream(files.file.path);
      // 创建可写流
      const upStream = fs.createWriteStream(chunksFileName);
      // // 可读流通过管道写入可写流
      reader.pipe(upStream);
    
      reader.on('end', () => {
        // 文件上传成功后,删除本地切片文件
        fs.unlinkSync(files.file.path)
      })
        
      ctx.response.body = {
        code: 0,
        msg: '切片上传完成'
      }
    })

    2、分片合并请求:

    /**
     * 1、判断是否有切片hash文件夹
     * 2、判断文件夹内的文件数量是否等于total
     * 4、然后合并切片
     * 5、删除切片文件信息
     */
    router.post('/api/upload/merge', function uploadFile(ctx) {
      const { total, hash, name } = ctx.request.body
      const dirPath = path.join(uploadPath, hash, '/')
      const filePath = path.join(uploadPath, name) // 合并文件
    
      // 已存在文件,则表示已上传成功
      if (fs.existsSync(filePath)) {
        ctx.response.body = {
          code: 0,
          url: path.join('http://localhost:3000/uploads', name),
          msg: '文件上传成功'
        }
      // 如果没有切片hash文件夹则表明上传失败
      } else if (!fs.existsSync(dirPath)) {
        ctx.response.body = {
          code: -1,
          msg: '文件上传失败'
        }
      } else {
        const chunks = fs.readdirSync(dirPath) // 读取所有切片文件
        const fileWriteStream = fs.createWriteStream(filePath) // 创建可写存储文件
        
        if(chunks.length !== total || !chunks.length) {
          ctx.response.body = {
            code: -1,
            msg: '上传失败,切片数量不符'
          }
        }
    
        for(let i = 0; i < chunks.length; i++) {
          // 将切片追加到存储文件
          fs.appendFileSync(filePath, fs.readFileSync(dirPath + hash + '-' + i))
          // 然后删除切片
          fs.unlinkSync(dirPath + hash + '-' + i)
        }
        // 然后再删除切片文件夹
        fs.rmdirSync(dirPath)
        // 默认情况下不需要手动关闭,但是在某些文件的合并并不会自动关闭可写流,比如压缩文件,所以这里在合并完成之后,统一关闭下
        fileWriteStream.close()
        // 合并文件成功
        ctx.response.body = {
          code: 0,
          url: path.join('http://localhost:3000/uploads', name),
          msg: '文件上传成功'
        }
      }
    })

    切片上传成功与文件合并截图:

    其它

    1、前端暂停,续传功能:

    <template>
      <div id="app">
        <input type="file" @change="uploadFile">{{ precent }}%
        <button type="button" v-if="!isStop" @click="stopUpload">暂停</button>
        <button type="button" v-else @click="reupload">继续上传</button>
      </div>
    </template>

    2、js 新增主动暂停和续传方法,比较简单,这里没有做停止正在执行的请求:

    stopUpload() {
      this.isStop = true
    },
    reupload() {
      this.isStop = false
      this.mergeRequest()
    }

    前端大文件的分片上传就差不多了。还可以优化的一点,在进行文件 hash 求值的时候,大文件的 hash 计算会比较慢,这里可以加上 html5 的新特性,用 Web Worker 新开一个线程进行 hash 计算。

    GitHub:https://github.com/554246839/file-upload

  • 相关阅读:
    vs 调试的时候 使用IP地址,局域网的设备可以访问并调试
    jQuery Easing 使用方法及其图解
    win10使用Composer-Setup安装Composer以及使用Composer安装Yii2最新版
    PHP 字符串数组按照拼音排序的问题
    yii2 查询数据库语法
    css禁用鼠标点击事件
    内容显示在HTML页面底端的一些处理方式
    UltraISO制作U盘启动盘
    Swift中使用MPMoviePlayerController实现自定义视频播放器界面
    关于dismissViewControllerAnimated值得注意的一点(deinit)
  • 原文地址:https://www.cnblogs.com/kdcg/p/13423029.html
Copyright © 2020-2023  润新知