项目地址 谷歌的TensorFlow.js
示例代码中的polynomial-regression-core
拟合曲线https://github.com/tensorflow/tfjs-examples/tree/master/polynomial-regression-core
代码理解 主要代码在index.js
中, 代码做的事情是随机生成一条y = a x 3 + b x 2 + c x + d
的曲线A
, 然后在这条曲线上下随机生成一些点做为数据集。 通过这些数据集我们要找到合适a, b, c, d
。正常情况下我们找到的a, b, c, d
生成的曲线和曲线A
会基本重合。 数据集生成在data.js
中, 以下是对index.js
代码的理解
1 2 3 import * as tf from '@tensorflow/tfjs' ;import { generateData } from './data' ;import { plotData, plotDataAndPredictions, renderCoefficients } from './ui' ;
生成随机的a, b, c, d
作为初始值
1 2 3 4 const a = tf.variable (tf.scalar (Math .random ()));const b = tf.variable (tf.scalar (Math .random ()));const c = tf.variable (tf.scalar (Math .random ()));const d = tf.variable (tf.scalar (Math .random ()));
迭代次数
, 可以自行调整, 调高可以提供准确性, 花费时间更长
1 const numIterations = 300 ;
学习率
, 相当于每次迭代调整的步伐, 步伐小,则需要迭代更多轮, 但并不是越大越好, 太大可能一步跨过最佳的值
1 const learningRate = 0.5 ;
SGD优化器
在下面迭代的时候用到
1 const optimizer = tf.train .sgd (learningRate);
构建模型, tf.tidy
可以在方法执行之后自动清理其中的张量, 释放内存, 但是不会清除函数的返回值
这里构建了一个y = a * x ^ 3 + b * x ^ 2 + c * x + d
的模型, 这里的x
指的不是单个x
, 而是x的矩阵
, 进行矩阵运算, 得到y
的矩阵
1 2 3 4 5 6 7 8 function predict (x ) { return tf.tidy (() => { return a.mul (x.pow (tf.scalar (3 , 'int32' ))) .add (b.mul (x.square ())) .add (c.mul (x)) .add (d); }); }
定义损失函数, 返回的值是结果与预期值的方差
1 2 3 4 function loss (prediction, labels ) { const error = prediction.sub (labels).square ().mean (); return error; }
循环训练模型, numIterations
是开头定义的迭代次数, optimizer
是SGD优化器
, 这里async
z指明train
是异步函数, 每次迭代通过await tf.nextFrame();
等待一次计算的结束再进行下一次计算, 对于a, b, c, d
值的修改更新, 都由优化器负责
1 2 3 4 5 6 7 8 9 async function train (xs, ys, numIterations ) { for (let iter = 0 ; iter < numIterations; iter++) { optimizer.minimize (() => { const pred = predict (xs); return loss (pred, ys); }); await tf.nextFrame (); } }
之后的代码是生成训练数据, 运行项目, 我们可以看到三幅图, 第二副图的曲线是初始状态随机的a, b, c, d
所生成的曲线, 第三幅图是训练之后的, 结果与曲线A
相差无几
1 2 $ npm install $ npm run watch