一、labview
正如我喜欢CAD的快捷键一样,快捷键给我的印象十分友好,labview也不例外
https://www.cnblogs.com/EltonLiang/p/6127337.html,此链接不失为一个快速成长的学习
二、电气
继电器:电控器件,输入回路(控制系统),输出回路是(被控系统)互动关系;原理是当输入量的变化达到规定要求,电路中使被控量发生预定的阶跃变化的一种电器。
在实际用途中,它实际上是用小电流去控制大电流运作的一种“自动开关”,如汽车的转向灯
继电器一般都有能反映一定输入变量(如电流、电压、功率、阻抗、频率、温度、压力、速度、光等)的感应机构(输入部分);
有能对被控电路实现“通”、“断”控制的执行机构(输出部分)
作用:自动调节,安全保护,转换电路(如何实现)等。
工作原理:以下是通电和断电的两种状态
继电器内部的工作原理:节点部分接的是外部的负载部分,利用继电器控制外部负载的动作
继电器的节点:分为A节点常开接点,B节点常闭接点,由一组A节点和B节点组成的称为C节点,一般继电器由一组或多组A,B节点构成,常见的有2C,4C节点
限位开关:固态继电器:
三、STM32学习
http://www.cnblogs.com/emouse/archive/2011/10/10/2206584.html,介绍很详尽
四、simulink
实战演练的确比生硬的学习要学的快,印象更深刻
这一节讲的是simulink的使能以及for循环,while循环,if条件,switch跳转在simulink中是如何实现的
参考原文https://wenku.baidu.com/view/d1ec1912227916888486d744.html
五、强化学习
强化学习核心思想:给你的行为打分,从分数中做决定,选择高分的动作。
分类:
1)不理解环境(model-free RL)
往真实世界中做动作,得到反馈。如:Q-learning,Sarsa,Policy gradients;
特点:按部就班一步一步等待真实世界的反馈,根据反馈采取下一步的行动
2)理解环境(model-based RL)
通过过往经验来建立模型模拟现实世界的反馈,还可以在虚拟中模拟(想象力);Q-learning,Sarsa,Policy gradients
特点:想象力;通过想象来预判接下来发生的所有情况,选择最好的那种,采取下一步的策略。
3)基于价值value-based RL
选择价值最高的动作,连续的动作无能为力;
Q-learning,Sarsa
4)基于概率policy-based RL
通过感官分析所处的环境,直接输出下一步采取各种行动的概率,根据概率
采取行动。对于连续动作可以采用概率分布
policy gradients
结合3,4的方法是ACtor-critic,前者基于概率做出动作,后者对于动作给出动作的价值
5)回合更新(Monte-carlo update)
从游戏开始到结束,再更新
基础班Policy-Gradients ,Monte-carlo learning
6)单步更新(Temporal-difference update)
特点:更有效率
边玩边更新
Q-learning ,sarsa,升级版policy Gradients
7)在线学习(on-policy)
本人边玩边学习
Sarsa
8)离线学习off-policy
自己玩或者别人玩,过往记忆经验
Q-learning,Deep Q-Network
这样的话,我们就可以根据项目的需要自己选择适合自己的方法
六、松下伺服电机
对于控制指令和控制模式,先学会用最基本的
https://wenku.baidu.com/view/367d3647bf1e650e52ea551810a6f524ccbfcbd7.html
这篇文章讲的十分到位