Docker for Windows相关

登陆下载

下载才能够获得下载地址,真是相当不人性化的东西(尤其是注册还得跑到’不存在的网站’上进行人机验证……)

为了让下次下载不那么麻烦,将下载地址记录在这了。

下载地址:https://download.docker.com/win/stable/Docker%20for%20Windows%20Installer.exe

镜像源

糟糕的国外镜像下载网速,windows下docker的设置与linux下也不一样

windows下操作方式是右键启动栏内的Docker图标,Setting->Daemon->Advanced->registry-mirrors

在里面添加镜像源的网站就好,如https://docker.mirrors.ustc.edu.cn

windows的linux子系统跑docker并不能成功

截至这篇文章写作之前,ubuntu版本的docker的执行需要的系统调用在windows的linux子系统下无法执行。

所以还是老老实实跑Docker for Windows(或者等不知道什么时候子系统能运行系统调用?)

Error starting userland proxy

mongodb无法在windows的docker下成功run

依旧是虚拟机的锅,不过这个存在解决方法

设置一个volume然后让-v的映射为该volume而不是本地路径即可

记录

清理技巧

MinGW64及对应VSCode的设置

minGW64下载地址

(可能需要科学上网)

VSCode配置文件中加入C_Cpp.default.systemIncludePath属性,改为下载后将安装目录下的include文件夹所在

可能需要添加的部分

1
2
3
"D:/CodeEnv/MinGW64/mingw32/lib/gcc/i686-w64-mingw32/8.1.0/include/c++",
"D:/CodeEnv/MinGW64/mingw32/lib/gcc/i686-w64-mingw32/8.1.0/include/c++/i686-w64-mingw32",
"D:/CodeEnv/MinGW64/mingw32/lib/gcc/i686-w64-mingw32/8.1.0/include/c++/i686-w64-mingw32"

截止至2019/4/22为止,VSCode的语法提示存在BUG,导致using namespace std会报错,具体如下

https://stackoverflow.com/questions/44094817/why-is-visual-studio-code-telling-me-that-cout-is-not-a-member-of-std-namespace

修复方式为在设置中添加属性

"C_Cpp.intelliSenseEngine": "Tag Parser"

论文相关-Fully automated macular pathology detection in retina OCT

术语:
age-related macular degeneration (AMD) 老年性黄斑变性
diabetic macular edema (DME) 糖尿病性黄斑水肿
Optical coherence tomography (OCT) 光学相干断层扫描
foveal 视网膜中央的
retinal pigment epithelium (RPE) 视网膜色素上皮细胞

子知识:
multiscale spatial pyramid 多尺度空间金字塔
空间金字塔池化(spatial pyramid pooling)之间有什么关系?

dictionary learning 字典学习
Histograms of Oriented Gradients(HOG) 方向梯度直方图
https://www.cnblogs.com/AdaminXie/archive/2018/10/31/9884096.html
https://blog.csdn.net/weixin_42647783/article/details/81454821
引申: Sobel算子

sparse coding 稀疏编码
http://www.cnblogs.com/tornadomeet/archive/2013/04/13/3018393.html
引申:
主成分分析(PCA)算法
http://www.cnblogs.com/pinard/p/6239403.html
(n维矩阵有n阶协方差矩阵,方差使用样本方差(带1/(n-1)的那个))(每个维度求各自维度的平均值,每个维度减去各自维度的平均值以中心化,X为所有x组成的矩阵,故XX^T可计算协方差(相乘再相加求出(为什么不用除以个数?)期望))

K-SVD【K-奇异值分解】
https://zhuanlan.zhihu.com/p/45964374
http://www.cnblogs.com/salan668/p/3555871.html

BM3D 三维块匹配算法
http://www.52rd.com/Blog/Detail_RD.Blog_founder0104_83511.html

中值滤波、形态学开运算、闭运算
https://blog.csdn.net/songzitea/article/details/10665893
http://www.opencv.org.cn/opencvdoc/2.3.2/html/doc/tutorials/imgproc/opening_closing_hats/opening_closing_hats.html
https://jingyan.baidu.com/article/f96699bbf99d9e894f3c1b4c.html

polynomial fitting、retina aligning 这两步是怎么做的?
列的算术平均值作为点,然后进行二次项拟合……
可能的论文连接 https://www.osapublishing.org/boe/abstract.cfm?uri=boe-5-10-3568

SIFT(Scale-invariant feature transform) 尺度不变特征变换
https://blog.csdn.net/zddblog/article/details/7521424

Cross-Validation 交叉验证
https://zhuanlan.zhihu.com/p/24825503

nestjs登陆页面制作记录

想要弄一个舒服的配置文件路径,在src中建立了config目录,打算将所有配置文件放在config之下

(tsconfig.json属性解说)[https://www.tslang.cn/docs/handbook/tsconfig-json.html]
我希望在import的时候不需要打一长串的路径,故将tsconfig.json属性中的baseUrl(代码提示中的根目录地点)设置为了./src
这样只需要import config/config,vacode就能够识别出config目录下的config.js

(webpack的模块路径)[https://www.webpackjs.com/configuration/resolve/#resolve-modules]
打包的时候对于模块路径(即没有/(绝对路径)或者./(相对路径)开头的路径,node_modules的中模块引用属于模块路径)会从resolve.modules中查询
要注意绝对路径和相对路径下的区别,相对路径情况下会进行逐目录的搜索,而绝对路径不会对其祖先目录进行搜索
这里我使用了[path.resolve(__dirname,”./src”),”node_modules”]作为参数
node_modules是默认参数,用于搜索node的模块
前面则是自己增加的src路径,用来方便config配置的
此处src不用相对路径而是绝对路径的原因是:相对路径会搜索祖先文件夹,而祖先文件夹含有webpack的编译输出文件夹dist
而自己使用了hot-reload,当编译结束的时候,由于dist发生了改变,又会引起下一次编译,导致编译不断进行无法结束
而使用绝对路径就不会考虑祖先文件夹,因此不会监听到dist的文件夹变化

webpack中允许使用__direname
在webpack.config.js加入以下配置

1
2
3
node: {
__dirname: true
}

typORM中出现错误Error: Entity metadata was not found时,确认注册路径的类在不同注册点的import路径相同(不能一个是模块路径,一个是相对路径)
https://blog.exceptionfound.com/index.php/2018/06/07/nestjs-basic-auth-and-sessions/

关于VAE

相关连接

目前对自编码器的理解

输入样本,经过隐藏层后输出同样的东西,实际上是将输入编码为了隐藏层的参数,使得隐藏层的参数和样本能够一一对应
即通过自编码器的不断学习,将样本一一编码至隐藏层向量中

目前对VAE的理解

VAE中,一个样本对应的不再是一个隐藏层参数向量,而是向量的分布(通常我们假设为正态分布……可能是因为好算?)
每个样本对应一个自己单独的向量分布
训练的时候在这个分布中采样计算loss梯度
KL散度是为了保持分布的方差$\sigma$不会趋于零(正则项,使得模型更具有泛化性),而正常loss项则是保持分布的均值$\mu$向应该在的位置靠拢,二者共同作用以训练分布)
(所以之前以为loss中KL散度是为了让隐变量z服从正态分布的想法不是那么准确,虽然z在这种情况下能推出z确实是正态分布(这也是为什么我们可以依靠随机采样正态分布作为z的依据))
之所以对应$\sigma^2$参数算出的代表为$log \sigma^2$是因为$\sigma^2$恒为正,但是网络输出可能为负数,但是取对数后可正可负,就不用特殊处理负数情况了。

阅读进度表

未完备注

卷积基础知识论文
https://arxiv.org/pdf/1806.00178.pdf
https://arxiv.org/pdf/1611.05431.pdf
https://arxiv.org/pdf/1611.07718.pdf
https://arxiv.org/pdf/1409.4842.pdf
http://nooverfit.com/wp/inception深度学习家族盘点-inception-v4-和inception-resnet未来走向何方/

强化学习
http://karpathy.github.io/2016/05/31/rl/
https://www.nature.com/articles/nature14236
https://gist.github.com/karpathy/a4166c7fe253700972fcbc77e4ea32c5

《神经科学》
当前145页
罗素《哲学问题》
http://yuedu.163.com/book_reader/12420b29a4a2479e8313467ab5a000e9_4

资料网站

https://www.oschina.net/
https://github.com/explore
https://yq.aliyun.com/
https://www.ccf.org.cn/
https://en.wikipedia.org/wiki/List_of_computer_science_conferences

已完备注

pytorch相关

常用Tensor初始化

(基本的初始化)[https://pytorch.org/docs/stable/torch.html#creation-ops]
(与特定Tensor相同dtype和device的初始化,在自定义模型中使用可以不用分cpu和gpu了)[https://pytorch.org/docs/stable/tensors.html#torch.Tensor]
(说起来到底怎么判断一个模型属于cpu还是属于gpu……)

将one-hot转为token

1
torch.eye(x.size(1))[x.argmax(1)]

先生成单位向量,然后用花式索引选择其对应行
很赞的方法

|