• 如何使用GPU改善JavaScript性能


    什么是 GPU.js

    首先,官网地址:https://gpu.rocks/

    简而言之,GPU.js 是一个 JavaScript 加速库,可用于使用 JavaScript 在 GPU 上进行通用计算。它支持浏览器、Node.js 和 TypeScript。

    除了性能提升外,我推荐使用 GPU.js 的原因还有以下几点:

    GPU.js 使用 JavaScript 作为基础,允许你使用 JavaScript 语法。
    它承担着将 JavaScript 自动转译为着色器语言的责任,并对它们进行编译。
    如果设备中没有 GPU,它可以退回到普通的 JavaScript 引擎。因此,使用 GPU.js 不会有任何不利因素。
    GPU.js 也可以用于并行计算。此外,你可以同时在 CPU 和 GPU 上异步地进行多项计算。

    所有这些东西加在一起,我不认为有理由不使用 GPU.js。因此,让我们看看如何开始使用它。

    如何设置 GPU.js?

    为您的项目安装 GPU.js 与其他的 JavaScript 库类似。

    对于 Node 项目

    npm install gpu.js --save
    or
    yarn add gpu.js
    import { GPU } from ('gpu.js')
    --- or ---
    const { GPU } = require('gpu.js')
    --- or ---
    import { GPU } from 'gpu.js'; // Use this for TypeScript
    const gpu = new GPU();

    对于 Bowsers

    在本地下载 GPU.js 或使用其 CDN。

    <script src="dist/gpu-browser.min.js"></script>
    --- or ---
    <script
    src="https://unpkg.com/gpu.js@latest/dist/gpu- browser.min.js">
    </script>
    <script
    rc="https://cdn.jsdelivr.net/npm/gpu.js@latest/dist/gpu-browser.min.js">
    </script>
    <script>
    const gpu = new GPU();
    ...
    </script>

    注意:

    如果你使用的是 Linux,你需要确保你安装了正确的文件,运行:sudo apt install mesa-common-dev libxi-dev

    这就是你需要知道的关于安装和导入 GPU.js 的情况。

    现在,你可以开始在你的应用程序中使用 GPU 编程。

    此外,我强烈建议理解 GPU.js 的基本功能和概念。所以,让我们从 GPU.js 的一些基础知识开始。

    创建函数

    你可以在 GPU.js 中定义函数以在 GPU 中运行,使用一般的 JavaScript 语法。

    const exampleKernel = gpu.createKernel(function() {
    ...
    }, settings);

    上面的代码样本显示了一个 GPU.js 函数的基本结构。我将该函数命名为 exampleKernel。正如你所看到的,我使用了 createKernel 函数,利用 GPU 进行计算。

    另外,定义输出的大小是必须的。在上面的例子中,我使用了一个名为 settings 的参数来指定输出大小。

    const settings = {
    output: [100]
    };

    内核函数的输出可以是 1D、2D 或 3D,这意味着它最多可以有 3 个线程。你可以使用 this.thread 命令在内核中访问这些线程。

    1D : [长度] - 值[this.thread.x]
    2D : [宽度,高度] - 值[this.thread.y][this.thread.x]
    3D: [宽度,高度,深度] - 值[this.thread.z][this.thread.y][this.thread.x]。

    最后,创建的函数可以像其他的 JavaScript 函数一样使用函数名来调用:exampleKernel()

     

    内部支持的变量

    Number

    你可以在 GPU.js 函数中使用任何整数或浮点数。

    const exampleKernel = gpu.createKernel(function() {
    const number1 = 10;
    const number2 = 0.10;
    return number1 + number2;
    }, settings);

    Boolean

    GPU.js 中也支持布尔值,与 JavaScript 类似。

    const kernel = gpu.createKernel(function() {
    const bool = true;
    if (bool) {
    return 1;
    }else{
    return 0;
    }
    },settings);

    Arrays

    你可以在内核函数中定义任何大小的数字数组,并返回它们。

    const exampleKernel = gpu.createKernel(function() {
    const array1 = [0.01, 1, 0.1, 10];
    return array1;
    }, settings);

    Functions

    在内核函数中使用私有函数,在 GPU.js 中也是允许的。

    const exampleKernel = gpu.createKernel(function() {
    function privateFunction() {
    return [0.01, 1, 0.1, 10];
    }
    return privateFunction();
    }, settings);
     

    支持的输入类型

    除了上述变量类型外,你还可以向内核函数传递几种输入类型。

    Numbers

    与变量声明类似,你可以向内核函数传递整数或浮点数,如下所示。

    const exampleKernel = gpu.createKernel(function(x) {
    return x;
    }, settings);
    exampleKernel(25);

    1D,2D, or 3D Array of Numbers

    你可以将 Array、Float32Array、Int16Array、Int8Array、Uint16Array、uInt8Array 等数组类型传入 GPU.js 内核。

    const exampleKernel = gpu.createKernel(function(x) {
    return x;
    }, settings);
    exampleKernel([1, 2, 3]);

    预扁平化的 2D 和 3D 数组也被内核函数所接受。这种方法使上传的速度更快,你必须使用 GPU.js 的输入选项来实现这一点。

    const { input } = require('gpu.js');
    const value = input(flattenedArray, [width, height, depth]);

    html Images

    与传统的 JavaScript 相比,将图像传递到函数中是我们在 GPU.js 中可以看到的一个新东西。使用 GPU.js,你可以将一个或多个 html 图像作为数组传递给内核函数。

    //Single Image
    const kernel = gpu.createKernel(function(image) {
    ...
    })
    .setGraphical(true)
    .setOutput([100, 100]);

    const image = document.createElement('img');
    image.src = 'image1.png';
    image.onload = () => {
    kernel(image);
    document.getElementsByTagName('body')[0].appendChild(kernel.canvas);
    };
    //Multiple Images
    const kernel = gpu.createKernel(function(image) {
    const pixel = image[this.thread.z][this.thread.y][this.thread.x];
    this.color(pixel[0], pixel[1], pixel[2], pixel[3]);
    })
    .setGraphical(true)
    .setOutput([100, 100]);

    const image1 = document.createElement('img');
    image1.src = 'image1.png';
    image1.onload = onload;
    ....
    //add another 2 images
    ....
    const totalImages = 3;
    let loadedImages = 0;
    function onload() {
    loadedImages++;
    if (loadedImages === totalImages) {
    kernel([image1, image2, image3]);
    document.getElementsByTagName('body')[0].appendChild(kernel.canvas);
    }
    };

    除了上述配置外,还有许多令人兴奋的事情可以用 GPU.js 进行实验。你可以在其文档中找到它们。既然你现在了解了几种配置,让我们用 GPU.js 写一个函数并比较其性能。

    https://www.98891.com/article-82-1.html;

    使用 GPU.js 的第一个功能

    通过结合我们之前讨论的所有内容,我写了一个小型的 angular 应用程序,通过将两个有 1000 个元素的数组相乘来比较 GPU 和 CPU 的计算性能。

    第 1 步,生成 1000 个元素的数组的函数

    我将生成一个每个元素有 1000 个数字的 2D 数组,并在接下来的步骤中使用它们进行计算。

    generateMatrices() {
    this.matrices = [[], []];
    for (let y = 0; y < this.matrixSize; y++) {
    this.matrices[0].push([])
    this.matrices[1].push([])
    for (let x = 0; x < this.matrixSize; x++) {
    const value1 = parseInt((Math.random() * 10).toString())
    const value2 = parseInt((Math.random() * 10).toString())
    this.matrices[0][y].push(value1)
    this.matrices[1][y].push(value2)
    }
    }
    }

    第 2 步,内核函数

    这是这个应用程序中最关键的函数,因为所有的 GPU 计算都发生在这里。

    在这里,multiplyMatrix 函数将接收两个数字数组和矩阵的大小作为输入。

    然后,它将把两个数组相乘并返回总和,同时使用性能 API 测量时间。

    gpuMultiplyMatrix() {
    const gpu = new GPU();
    const multiplyMatrix = gpu.createKernel(function (a: number[][], b: number[][], matrixSize: number) {
    let sum = 0;

    for (let i = 0; i < matrixSize; i++) {
    sum += a[this.thread.y][i] * b[i][this.thread.x];
    }
    return sum;
    }).setOutput([this.matrixSize, this.matrixSize])
    const startTime = performance.now();
    const resultMatrix = multiplyMatrix(this.matrices[0], this.matrices[1], this.matrixSize);

    const endTime = performance.now();
    this.gpuTime = (endTime - startTime) + " ms";

    console.log("GPU TIME : "+ this.gpuTime);
    this.gpuProduct = resultMatrix as number[][];
    }

    步骤 3,CPU 乘法函数。

    这是一个传统的 TypeScript 函数,用于测量相同数组的计算时间。

    cpuMutiplyMatrix() {
    const startTime = performance.now();
    const a = this.matrices[0];
    const b = this.matrices[1];
    let productRow = Array.apply(null, new Array(this.matrixSize)).map(Number.prototype.valueOf, 0);
    let product = new Array(this.matrixSize);

    for (let p = 0; p < this.matrixSize; p++) {
    product[p] = productRow.slice();
    }

    for (let i = 0; i < this.matrixSize; i++) {
    for (let j = 0; j < this.matrixSize; j++) {
    for (let k = 0; k < this.matrixSize; k++) {
    product[i][j] += a[i][k] * b[k][j];
    }
    }
    }
    const endTime = performance.now();
    this.cpuTime = (endTime — startTime) + “ ms”;
    console.log(“CPU TIME : “+ this.cpuTime);
    this.cpuProduct = product;
    }
     

    CPU vs GPU,性能比较

    现在是时候看看围绕着 GPU.js 和 GPU 计算的所有讨论是否真实。由于我在上一节中创建了一个 Angular 应用程序,所以我用它来测量性能。

    你可以清楚地看到,GPU 编程的计算只花了 799ms,而 CPU 花了 7511ms,这几乎是 10 倍的时间。

    我没有就此罢休,通过改变数组大小,对同样的测试进行了几个循环。

    首先,我试着用较小的数组大小,我注意到 CPU 比 GPU 花费的时间要少。例如,当我把数组大小减少到 10 个元素时,CPU 只花了 0.14ms,而 GPU 花了 108ms。

    但随着数组大小的增加,GPU 和 CPU 所花的时间有明显的差距。正如你在上图中看到的,GPU 是赢家。

  • 相关阅读:
    分享知识-快乐自己:Spring整合定时器
    自定义响应结构 AjaxResult()
    日期工具类 DateUtils(继承org.apache.commons.lang.time.DateUtils类)
    处理json的工具类({本类为处理json的工具类})
    单机版 RedisUtils({基本操作封装工具类})【三】
    单机版 JedisUtil({基本操作封装工具类})【二】
    单机版 RedisPoolUtil({基本操作封装工具类})【一】
    序列化工具类({对实体Bean进行序列化操作.},{将字节数组反序列化为实体Bean.})
    分享知识-快乐自己:遍历Map集合
    自己的新闻后台管理系统
  • 原文地址:https://www.cnblogs.com/qianxiaox/p/14933964.html
Copyright © 2020-2023  润新知