- 博客(438)
- 资源 (15)
- 收藏
- 关注

转载 机器学习实践中应避免的七种常见错误
http://dataunion.org/11624.html作者:Cheng-Tao Chu‘s LinkedIn在机器学习领域,每个给定的建模问题都存在几十种解法,每个模型又有难以简单判定是否合理的不同假设。在这种情况下,大多数从业人员倾向于挑选他们熟悉的建模算法,本文作者则认为,模型算法的假设并不一定适用于手头的数据;在追求模型最佳性能时,重要的是选择适合数
2015-08-06 20:05:58
1396

原创 scikit-learn:在实际项目中用到过的知识点(总结)
零、所有项目通用的:http://blog.csdn.net/mmc2015/article/details/46851245(数据集格式和预测器)http://blog.csdn.net/mmc2015/article/details/46852755(加载自己的原始数据)(适合文本分类问题的 整个语料库加载)http://blog.csdn.net/mmc2
2015-07-27 08:34:35
7165

原创 看过的较好的资源和待看的资源
网上的资源很多,本人只推荐看过的自认为较好的推荐给大家:机器学习基础:推荐:Tom Mitchell:http://book.douban.com/subject/1102235/ 中英文对照,了解该方向的专业名词,了解大概算法、思想。http://www.cs.cmu.edu/~tom/10701_sp11/CMU公开课,深入该领域必看。Andrew
2015-06-04 10:14:24
2007
原创 MuJoCo及mujoco_py安装(以及troubleshooting)
MuJoCo及mujoco_py安装(以及troubleshooting)
2022-10-05 13:44:32
2752
1
原创 很认真的中了两篇AAAI2020的文章:NCC-MARL: Neighborhood Cognition Consistent Multi-Agent Reinforcement Learning.
第一篇:NCC-MARL: Neighborhood Cognition Consistent Multi-Agent Reinforcement Learning.NCC-MARL is a general RL framework to handlelarge-scalemulti-agent cooperative problems. We notice that agents ...
2019-11-16 19:30:48
2919
5
转载 Leetcode刷题指南
参考:https://blog.csdn.net/qq_39521554/article/details/79160815 二、刷题方法方法一:按照题目出现频率刷题顺序参考文章最后的部分方法二:标签法按照网站给大家排列的不同tags,起到模块化的复习和学习作用。举个例子:比如复习链表的内容,就选Linked List这部分的23个题目。刷完之后可以再总结一下常用的方法和数据结...
2019-02-13 19:21:48
17595
原创 很认真的中了一篇AAMAS2019的文章:Modelling the Dynamic Joint Policy of Teammates with Attention Multi-agent DDPG
【有中相同会议的小伙伴记得联系我哦,可以一起商量着把会议相关的事情做好】这篇文章是利用深度强化学习(Deep Reinforcement Learning)做多智能体合作(multi-agent cooperation)。主要贡献点在于使用了一个attention机制 in a principled way,principle在,这个attention是基于agent modelling方...
2019-01-23 15:46:03
5102
3
原创 dropout为什么有用。Dropout在RNN中的应用综述。
想起来前两天小师弟问我问题,为什么dropout是有用的,看起来像是一个有bug的操作。 这里谈下自己的理解,不一定正确:1)dropout的经典解读之一是network的ensemble,每次drop不同的weights,从而形成不同的sub-network,最后ensemble所有的sub-network2)那么为什么sub-network可行呢?这个很少有人提到。我觉得...
2018-09-25 20:40:16
6038
转载 Cross-Entropy Method (CEM, 交叉熵方法) 与强化学习
转自:https://the0demiurge.blogspot.com/2017/08/cross-entropy-method-cem.html 前言之前阅读Deep Reinforcement Learning: Pong from Pixels的时候,作者在文中最后提到“One should always try a BB gun before reaching for the...
2018-08-17 21:25:24
11090
转载 TensorFlow中实用的知识:在静态图中写条件判断语句
https://mp.weixin.qq.com/s?__biz=MzU2OTA0NzE2NA==&mid=2247493703&idx=1&sn=7944d78c692d5f7590ba052bbf75a235&chksm=fc860954cbf18042be63c9734fd991a2dfbd250b7e803e043af5232829fb83a6ca3f80a...
2018-07-28 08:31:45
5333
原创 CS224N(Natural Language Processing with Deep Learning)总结:模型、任务、作业、作业中涉及到的特殊代码
模型:word2vec(skip-gram、CBOW)、GloVe、DNN/BP/Tips for training、RNN/GRU/LSTM、Attention、CNN、TreeRNN应用:Neural Machine Translation、Dependency Parsing、Coreference Resolution作业:skip-gram、window-based s...
2018-07-16 20:58:33
2207
1
原创 PAKDD2018小结
会议整体概况610+投稿量long paper:57,9.63%short paper:107,18.07%【placeholder for pictures】投稿量最多的是applications录稿量最多的是mining graph and network data【placeholder for pictures】录稿量最多的三个国家:美中澳参会人数最多的三个国家:澳中美...
2018-06-14 08:37:17
4333
1
原创 The gossip problem【多智能体通信达成全局一致性需要的最少通信次数】
https://www.sciencedirect.com/science/article/pii/0012365X73901210https://arxiv.org/abs/1511.00867
2018-04-11 13:31:42
879
原创 如何解释policy gradient中的baseline具有降低variance的作用
在增强学习中有一大类方法叫policy gradient,最典型的是REINFORCE。在这类方法中,目标函数J(w)(通常是the expectation of long term reward)对policy参数w的gradient为:▽J(w) == E[ ▽logπ(a|s) * return ]== E[ ▽logπ(a|s) * (return-baseline)]~=计算N个samp...
2018-04-09 23:24:22
3751
原创 如果环境存在random,那么问题还能建模成MDP吗?
李宏毅老师的课程:https://www.youtube.com/watch?v=W8XF3ME8G2I老师说,对于同一个observation/state(atari game的画面),也不一定会采取相同的动作,因为有些actor是stochastic的,选action有一定随机性,这一点好理解。。。老师还说,即便actor采取同一个action,得到的reward和next state也不一定...
2018-03-16 08:16:32
602
原创 梯度截断的tensorflow实现
gradients = optimizer.compute_gradients(loss, var_list)capped_gradients = [(tf.clip_by_value(grad, -5., 5.), var) for grad, var in gradients if grad is not None]train_op = optimizer.apply_gradients(...
2018-03-02 09:18:09
4257
3
原创 水了一篇PAKDD2018的文章:Topic-specific Retweet Count Ranking for Weibo
看题目就知道做什么工作:Topic-specific Retweet Count Ranking for Weibo摘要:In this paper, we study \emph{topic-specific} retweet count ranking problem in Weibo. Two challenges make this task nontrivial. Firstly, tr...
2018-02-24 08:26:36
4295
5
原创 使用CNN kernel对图像进行【锐化、模糊、浮雕等】处理
发现一门将tensorflow的不错的课程。https://web.stanford.edu/class/cs20si/2017/lectures/slides_07.pdf之前做过一个相机的APP,当时做图片美化,些非常多的代码效果不一定好。下面这个图提醒我们,其实直接使用CNN特定的kernel在愿图片上进行一次卷积就可以完成图片的转换了,而且计算量应该比较少吧。
2018-01-22 16:47:25
2961
原创 python3练习
参考:http://www.runoob.com/python3/python3-tutorial.html输入:>>> a=input("input something:")input something:hello world>>> a'hello world'输出:加括号、不换行>>> print("Hello, Python!")Hello,
2018-01-15 21:25:46
844
转载 2017年AI关键技术盘点:AlphaGo/GAN/Capsule/基于DL的CTR预估/CV/NLP
写的挺好,转一下。2017年AI技术盘点:关键进展与趋势原创 2018-01-04 张俊林 人工智能头条作者 | 张俊林责编 | 何永灿人工智能最近三年发展如火如荼,学术界、工业界、投资界各方一起发力,硬件、算法与数据共同发展,不仅仅是大型互联网公司,包括大量创业公司以及传统行业的公司都开始涉足人工智能。2017年人工智能行业
2018-01-05 09:52:31
1771
原创 通过【端口转发】在服务器上使用TensorBoard
如果是一次转发:https://stackoverflow.com/questions/37987839/how-can-i-run-tensorboard-on-a-remote-serverdown voteHere is what I do to avoid the issues of making the remote server accept your local external I...
2017-11-26 20:56:43
5340
2
原创 MARL(multi-agent reinforcement learning)的一些边缘文章(imitation、transfer、security等)
参考:https://github.com/LantaoYu/MARL-Papers7.4.2、Inverse MARL[1] Cooperative inverse reinforcement learning by Hadfield-Menell D,Russell S J, Abbeel P, et al. NIPS, 2016.[2] Comparison of Mul
2017-11-07 20:40:22
5925
转载 SELU激活函数,scaled exponential linear units
SELU、ReLU、leaky ReLU对比:https://github.com/shaohua0116/Activation-Visualization-Histogram关于SELU激活函数的详细介绍,从这个地址转来的:http://blog.csdn.net/liyuan123zhouhui/article/details/73702271
2017-09-25 17:04:54
12418
转载 Jacobian矩阵和Hessian矩阵
关于Jacobian矩阵和Hessian矩阵的介绍,挺简单明了的:http://jacoxu.com/jacobian%E7%9F%A9%E9%98%B5%E5%92%8Chessian%E7%9F%A9%E9%98%B5/需要注意一点,楼主你好,我和楼上一样不太懂你写的牛顿法求最优化那部分的思路。按我的理解,原方程泰勒二阶展开 f(x+Δx)=f(x)+f′(x)*Δx+1/
2017-09-25 14:46:37
655
转载 Image Completion with Deep Learning in TensorFlow【DCGAN,图像补全】
写的不错,直接拿来了。http://bamos.github.io/2016/08/09/deep-completion/#so-how-can-we-complete-imagesIntroductionStep 1: Interpreting images as samples from a probability distributionHow
2017-09-13 09:36:45
3602
1
原创 多用户linux下安装tensorflow、keras环境;如何在系统自带python和Anaconda间切换
每次装的时候都要犯过去犯过的错误,记录一下,下次直接照着来:1)安装anaconda直接bash Anaconda2-4.4.0-Linux-x86_64.sh(一路enter、yes、ok之类的)可以考虑source ~/.bashrc注意,这里可以which python一下,如果是/home/username/anaconda2/bin/python,就ok。
2017-09-09 17:02:42
2027
转载 变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。
总结的非常好,故转来,如果侵权,请告知,会及时删掉。大家还是去看原文好,作者的文章都不错:https://zhuanlan.zhihu.com/p/28749411https://www.zhihu.com/people/professor-ho/posts写文章变形卷积核、可分
2017-08-31 14:08:49
21450
2
转载 从语言学到深度学习NLP,【一文概述自然语言处理】
两篇文章确实不错。https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650729976&idx=1&sn=1f2e64ae2baefd82fd6dcac86d2cc77e&chksm=871b2986b06ca0907fdc335b8f79f0c15cc4393ec45f89ad93d3c9a899c05224dc16e244
2017-08-21 22:52:59
3869
转载 【避免AI错把黑人识别为大猩猩】伯克利大学提出协同反向强化学习【论rewards设计的重要性】
因为之后打算写一篇rewards设计的文章,所以看到这个文章觉得是个有力的出发点。另外,文章本身也很不错。https://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652002837&idx=5&sn=c966fdaab2dc651f644118af9686f712&chksm=f1212ee4c656a7f2f5509ab2b0
2017-08-21 20:20:21
1438
转载 无需数学背景,读懂ResNet、Inception和Xception三大变革性架构
写的确实不错:resnet:加深、通过identity mapping实现inception:加宽、让网络自动选择5*5卷积、3*3卷积还是max-pooling那个更好,通过1*1卷积实现运算量的减少Xception:将通道间的关系和空间上的关系分开进行识别https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650
2017-08-21 20:15:19
2995
原创 《reinforcement learning:an introduction》第十三章《Policy Gradient Methods》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。13.1 Policy Approximation and its Advantages . . . . . . . .
2017-08-15 09:57:11
1568
原创 《reinforcement learning:an introduction》第十一章《Off-policy Methods with Approximation》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。The tabular off-policy methods developed in Chap
2017-08-08 19:14:51
799
原创 《reinforcement learning:an introduction》第十章《On-policy Control with Approximation》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。The present chapter features the semi-gradient Sar
2017-08-08 18:53:23
984
原创 《reinforcement learning:an introduction》第九章《On-policy Prediction with Approximation》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。9.1 Value-function Approximation . . . . . . .
2017-08-07 14:33:56
1465
原创 《reinforcement learning:an introduction》第八章《Planning and Learning with Tabular Methods》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。8.1 Models and PlanningBy a model of the
2017-08-03 11:03:27
1723
原创 《reinforcement learning:an introduction》第七章《Multi-step Bootstrapping》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。7.1 n-step TD PredictionThe methods that use n
2017-08-02 19:30:26
2072
3
转载 Deep Learning for NLP Best Practices
写的挺好,选择的话题都是很经典的。原文:http://ruder.io/deep-learning-nlp-best-practices/index.html#introduction译文:http://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650729318&idx=1&sn=0bd03d7add9d9b6a5fbd1060
2017-07-28 08:27:37
1790
原创 《reinforcement learning:an introduction》第六章《Temporal-Difference Learning》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。注意:本章考虑model-free的prediction和control,仍然有两种方法,pol
2017-07-25 20:41:12
1824
原创 《reinforcement learning:an introduction》第五章《Monte Carlo Methods》总结
由于组里新同学进来,需要带着他入门RL,选择从silver的课程开始。对于我自己,增加一个仔细阅读《reinforcement learning:an introduction》的要求。因为之前读的不太认真,这一次希望可以认真一点,将对应的知识点也做一个简单总结。注意:本章考虑model-free的prediction和control,仍然有两种方法,policy
2017-07-25 19:36:19
2398
转载 【致敬ImageNet】ResNet 6大变体:何恺明,孙剑,颜水成引领计算机视觉这两年
文章写得挺好,故转载来。http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652001197&idx=1&sn=4239318655806de8ed807d44cdb1b99c&chksm=f121275cc656ae4a3ad2dedc3b7a53b57fe92f76b97fc1c237bcf9e6a4cdb8adba67ff470d
2017-07-23 07:45:26
7709
1
dblp测试数据集
2016-03-26
entity linking源码
2016-01-17
机器学习数据集,20news-bydate.rar
2015-09-06
java读xml文件jar包
2015-08-22
javaweb连接数据库包mysql-connector-java-5.1.27-bin.jar
2015-08-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人