☻Blog("Laziji")

System.out.print("辣子鸡的博客");

组件传参

通过给组件传递参数, 可以让组件变得更加可扩展, 组件内使用props接收参数

1
2
3
4
5
6
export default {
props: ['options'],
data(){
return {}
}
}

但是这个方法有局限性, 例如我写了一个对话框组件, 对话框的内容是自定义的
如果我只是显示文字的话, 我可以简单的将字符串传进去props: ['message']
但是如果需要在其中添加一个按钮的话, 这种方法就显得很笨重了, 所以我们用另一种办法 插槽

slot 插槽

slot的使用就像它的名字一样, 在组件内定义一块空间, 取名为slotA

1
2
3
4
<div class="dialog">
我是对话框
<slot name="slotA"></slot>
</div>

在组件外, 我们可以往插槽里填入任何元素, dialog-a为组件的名称

1
2
3
4
5
6
<dialog-a :options="hello">
<template slot="slotA">
<button>按钮</button>
// ... 可以是任何元素
</template>
</dialog-a>

slot-scope 获取插槽作用域

前面讲的只是实现往组件内加入元素, 但是并没有和组件的数据有任何的交互
slot-scope的作用就是把组件内的数据带出来

1
2
3
4
5
<div class="dialog">
我是对话框<br>
{{message}}
<slot name="slotA" :message="message"></slot>
</div>

在组件外就可以得到其中的message

1
2
3
4
5
<dialog-a :options="hello">
<template slot="slotA" slot-scope="scope">
<button>{{scope.message}}</button>
</template>
</dialog-a>

ref 调用组件内的方法

使用this.$refs找到组件后, 就可以调用其中methods中的方法

1
2
<dialog-a ref="dialogA"></dialog-a>

1
2
3
test(){
this.$refs.dialogA.func()
}

项目地址

谷歌的TensorFlow.js示例代码中的polynomial-regression-core拟合曲线
https://github.com/tensorflow/tfjs-examples/tree/master/polynomial-regression-core

代码理解

主要代码在index.js中, 代码做的事情是随机生成一条y = a x 3 + b x 2 + c x + d曲线A, 然后在这条曲线上下随机生成一些点做为数据集。
通过这些数据集我们要找到合适a, b, c, d。正常情况下我们找到的a, b, c, d生成的曲线和曲线A会基本重合。
数据集生成在data.js中, 以下是对index.js代码的理解

1
2
3
import * as tf from '@tensorflow/tfjs';
import { generateData } from './data';
import { plotData, plotDataAndPredictions, renderCoefficients } from './ui';

生成随机的a, b, c, d作为初始值

1
2
3
4
const a = tf.variable(tf.scalar(Math.random()));
const b = tf.variable(tf.scalar(Math.random()));
const c = tf.variable(tf.scalar(Math.random()));
const d = tf.variable(tf.scalar(Math.random()));

迭代次数, 可以自行调整, 调高可以提供准确性, 花费时间更长

1
const numIterations = 300;

学习率, 相当于每次迭代调整的步伐, 步伐小,则需要迭代更多轮, 但并不是越大越好, 太大可能一步跨过最佳的值

1
const learningRate = 0.5;

SGD优化器在下面迭代的时候用到

1
const optimizer = tf.train.sgd(learningRate);

构建模型, tf.tidy可以在方法执行之后自动清理其中的张量, 释放内存, 但是不会清除函数的返回值
这里构建了一个y = a * x ^ 3 + b * x ^ 2 + c * x + d的模型, 这里的x指的不是单个x, 而是x的矩阵, 进行矩阵运算, 得到y的矩阵

1
2
3
4
5
6
7
8
function predict(x) {
return tf.tidy(() => {
return a.mul(x.pow(tf.scalar(3, 'int32')))
.add(b.mul(x.square()))
.add(c.mul(x))
.add(d);
});
}

定义损失函数, 返回的值是结果与预期值的方差

1
2
3
4
function loss(prediction, labels) {
const error = prediction.sub(labels).square().mean();
return error;
}

循环训练模型, numIterations是开头定义的迭代次数, optimizerSGD优化器, 这里asyncz指明train是异步函数, 每次迭代通过await tf.nextFrame();等待一次计算的结束再进行下一次计算, 对于a, b, c, d值的修改更新, 都由优化器负责

1
2
3
4
5
6
7
8
9
async function train(xs, ys, numIterations) {
for (let iter = 0; iter < numIterations; iter++) {
optimizer.minimize(() => {
const pred = predict(xs);
return loss(pred, ys);
});
await tf.nextFrame();
}
}

之后的代码是生成训练数据, 运行项目, 我们可以看到三幅图, 第二副图的曲线是初始状态随机的a, b, c, d所生成的曲线, 第三幅图是训练之后的, 结果与曲线A相差无几

1
2
$ npm install
$ npm run watch
0%