- 博客(17)
- 收藏
- 关注
原创 WonderTrade 笔记
安装教程创建环境conda create -n wondertrade python=3.9conda activate wondertrade安装 wtpypip install wtpy版本重新配置在未进行版本重新配置时, import 时会提示如下错误Traceback (most recent call last): File "<stdin>", line 1, in <module> File "C:\ProgramData\A.
2022-03-18 00:46:34
774
原创 humminbot 笔记
安装 Docker# 1) Download Docker install scriptwget https://raw.githubusercontent.com/hummingbot/hummingbot/master/installation/install-docker/install-docker-ubuntu.sh# 2) Enable script permissionschmod a+x install-docker-ubuntu.sh# 3) Run installati.
2022-03-17 10:47:31
2294
原创 Crypto Market Maker Project: 做市商 高频交易 回测
Crypto Market Maker Project: 做市商 高频交易 回测
2022-03-06 21:08:36
3371
原创 BSC 测试链配置
全流程步骤安装 MetaMask 钱包在 MetaMask 钱包中配置 BSC 测试链向测试链钱包注入测试 BNB/USDT/DOGERemix 编写代码正式发币1. 安装 MetaMask 钱包下载地址:https://metamask.io/2. 在 MetaMask 钱包中配置 BSC 测试链选择自定义 RPC配置文档参考地址: https://docs.binance.org/smart-chain/wallet/trezor.html#unlock-your-met
2021-07-02 00:02:03
36074
7
原创 Neural Task Graphs: Generalizing to Unseen Tasks from a Single Video Demonstration
读论文目的:目标: 完成上层任务规划输入: 总任务输出: n * (操作 + 参数)论文题目:Neural Task Graphs: Generalizing to Unseen Tasks from a Single Video Demonstration论文地址:论文地址论文视频:视频地址论文目的:在指定的域中,只有一个完成任务的视频演示,我们需要根据这个演示生成一个策略,用来完成一个没有见过的任务后面的慢慢写,明天先考试...
2021-03-28 14:20:57
317
1
原创 Continuous Relaxation of Symbolic Planner for One-Shot Imitation Learning: 利用符号规划问题的单样本模仿学习
摘要 Abstract研究内容: 一次性模仿学习目标: 基于单个演示来执行之前未见过的任务过去研究优点: 模仿学习效果很好过去研究不足: 大多数方法需要几百个元训练任务,限制了方法的可扩展性创新工作: 将一次性模仿学习作为一个伴有符号基础问题的符号规划问题创新意义: 这种形式将策略执行与任务间的泛化分离开来,从而提高数据效率创新难点: 关键挑战是符号基础在训练数据有限的情况下容易出错,导致后续的符号规划失败难点解决方式: 通过提出一个离散符号规划者的连续松弛解
2021-03-18 00:07:57
576
原创 强化学习笔记(六)
Deep Q NetworkDeep Q Network 意义Q 表格的存储和查询消耗大量空间时间, 社交网络有效提升了效率Deep Q Network例子
2021-03-03 16:14:38
145
原创 强化学习笔记(五)
Sarsa(λ)Sarsa(λ) 定义更新获取到奖励的前 λ 步, λ 在 [0, 1] 之间取值, λ = 0: 只更新最后一步, λ = 1: 每一步都更新, 且权重相同, 0 < λ < 1: 离目标越远的步骤权重越低, 越近权重越高Sarsa(λ) 优点距离奖励越远的步骤, 在衰减因子 λ 的作用下, 价值越小, 而距离奖励越近, 价值越大, 通过这种方式, 可以避免往返执行重复的步骤并更快地整体调整价值参数...
2021-02-21 12:15:29
323
1
原创 强化学习笔记(四)
Sarsa在线学习(On-Policy): 说到做到, 亲自参与训练过程, 不是模拟选择, 直接选择行为执行Sarsa 算法初始化 Q(s, a) 为任意值重复以下步骤 (每个训练回合): 初始化状态 s 从状态 s 中根据来源于 Q 的策略选择行为 a (例如: ε-greedy ε=0.9: 90%情况取最优行为, 10% 情况随机采取行为) 重复以下步骤 (单个回合中的每一步): 执行行为 a, 观察奖励 r, 下一状态 s' 从状态 s' 中根据来源于 Q 的策略选择行为
2021-02-20 16:33:57
144
原创 强化学习笔记(三)
实现探宝者移动策略输出结果在代码下方import numpy as npimport pandas as pdimport time# 设置可重复显示的随机数np.random.seed(2)# 初始距离宝藏距离N_STATES = 6# 探宝者可执行操作ACTIONS = ['left', 'right']# 贪心策略执行比例EPSILON = 0.9# 学习效率ALPHA = 0.1# 衰减因子LAMBDA = 0.9# 最大回合数MAX_EPISO.
2021-02-19 21:12:47
134
原创 强化学习笔记(二)
Q-LearningQ-Learning 状态和行为a1a2s1-21s2-42更新规则:状态: s1: Q(s1, a2) > Q(s1, a1) => 行为: a2状态: s2: Q(s2, a2) > Q(s2, a1) => 行为: a2Q 现实: Q(s1, a2) = R + γ * max(Q(s2)) (R: 真实奖励, γ: 衰减因子)Q 估计: Q(s1, a2)差距 = 现实 - 估计新 Q(s1
2021-02-19 16:49:35
146
原创 强化学习笔记(一)
强化学习算法分类根据行为选择依据进行分类通过价值选行为:Q LearningSarsaDeep Q Network直接选行为:Policy Gradients想象环境并从中学习:Model based RL根据理解环境与否进行分类不理解环境(Model-Free RL):Q LearningSarsaPolicy Gradients理解环境(Model-Based RL):Q LearningSarsaPolicy Gradients
2021-02-19 16:10:15
114
原创 PaddlePaddle 官方 Cascade R-CNN + ResNeXt 101 + FPN 配置文档 cascade_rcnn_dcn_x101_vd_64x4d_fpn_1x.yml 解析
PaddlePaddle 提供了很多常见的深度学习模型,这里对 Cascade R-CNN + ResNeXt 101 + FPN 配置文档进行分析,方便大家进行调参和修改,文档名称为: cascade_rcnn_dcn_x101_vd_64x4d_fpn_1x.yml# 模型检测名称architecture: CascadeRCNN# 最大迭代数,每一个 iter 会运行 batch_size * device_num 张图片,batch_size 在下面中 TrainReader.batch_si
2021-02-05 22:27:34
1970
3
转载 mmdetection 训练 Faster R-CNN
训练步骤安装 labelmeconda create --name=labelme python=3.6conda activate labelmepip install pyqt5pip install labelme安装 scikit-image,scipypip install scikit-image -i https://pypi.tuna.tsinghua.edu.cn/simplepip install scipy -i https://pypi.tuna.tsing
2021-01-20 22:41:34
2027
1
转载 mmdetection 安装配置全过程
配置版本python=3.7pytorch = 1.2torchvision = 0.4cudatoolkit=10.0mmdetection = 1.1安装步骤建议使用加速器安装配置下载资源:安装配置文件, 提取码: 1fyy解压 cocoapi,mmcv,mmdetection-1.1.0 三个压缩包创建环境: conda create -n mmdetection python=3.7, 这个过程大概5分钟激活环境: conda activate mmdetection安
2021-01-20 16:43:15
2170
3
转载 mmdetection 2.0 安装配置 (win10)
参考 b 站安装教程需要注意以下 bug1. 最后一步出现问题:D:\Program Files\Anaconda\envs\mmdet2\lib\sitepackages\torch\utils\cpp_extension.py:191: UserWarning: Error checking compiler version for cl: 【WinError 2】 系统找不到指定的文件。warnings.warn('Error checking compiler version for {}:
2021-01-19 21:13:21
635
1
转载 Faster R-CNN 学习笔记
目录卷积层 (Concolutional Layer, Conv Layer)区域候选网络 (Region Proposal Network, RPN)感兴趣区域池化 (Region of Interest Pooling, ROI Pooling)分类层 (Classification Layer)Faster R-CNN 训练卷积层 (Concolutional Layer, Conv Layer)Conv Layer 包含三层: 卷积层 (Conv), 激活函数层(Rectifi
2021-01-08 15:56:39
664
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人