111qqz的小窝

老年咸鱼冲锋!

caffe 源码阅读笔记

blob layer net 激活函数 卷积 reshape slice loss function reduce eltwise argmax

【施工中】torch2trt 学习笔记

前言 偶然发现了 torch2trt 的模型转换方案,思路是直接将pytorch op映射到TensorRT的python api. 在pytorch进行每个op forwar

Jetson Nano踩坑记录

写在前面 主要是需要在jetson nano做模型转换,来记录下踩的坑 目前有两条路径,一条是我们现有的转换路径,也就是pytorch->o

caffe 源码学习笔记(11) argmax layer

背景 似乎没什么背景,继续看caffe代码 argmax的作用是返回一个blob某个维度或者batch_size之后的维度的top_k的inde

caffe 源码学习笔记(10) eltwise layer

背景 这个layer和reduce layer有一些相似,就干脆一起看了. 作用是输入至少两个blob,然后对每个blob中的元素所一些运算,最后

caffe 源码学习笔记(9) reduce layer

背景 其实没什么背景,继续啃caffe代码而已2333 reduce layer其实就是做reduce操作,把一个任意shape的blob通过某种运算变成一

Focal Loss for Dense Object Detection(RetinaNet) 学习笔记

先写个简略版的笔记..看之后的情况要不要读得更精细一点.. 背景 two stage的检测比one stage的检测效果好,原因是啥? 作者认为是正负样本

caffe 源码学习笔记(8) loss function

背景 虽然不太care 训练的过程,但是由于容易看懂的layer都看得差不多了 所以打算看一下这些loss function. Euclidean Loss (L2 loss) 一般用于“real-value

caffe 源码学习笔记(7) slice layer

背景 ocr组那边有个shuffle net 的网络,里面有个pytorch op叫chunk,转成的onnx对应的op是 split 作用是: Split a tensor into a list of tensors, along the

caffe 源码学习笔记(6) reshape layer

背景 最近在魔改 tensorRT 的caffe parser 之前caffe模型转到trt模型时,有一个修改是需要将reshape layer的param末尾补1,比较繁琐,

caffe 源码学习笔记(5) 卷积

caffe中卷积运算的实现 暴力实现的卷积大概是这样子的 for w in 1..W for h in 1..H for x in 1..K for y in 1..K for m in 1..M for d in 1..D output(w, h, m) += input(w+x, h+y, d) * filter(m, x, y, d) end end end end end end 这

tensorrt INT8 量化debug记录(cuda error 700)

背景是要把某个caffe model,转换成tensorrt的INT8 模型。 然后遇到如下报错: E0403 08:54:35.951987 5704 engine.h:62] engine.cpp (572) - Cuda Error in commonEmitTensor: 1 (invalid argument) E0403 08:54:35.952157 5704 engine.h:62] Failure while trying to emit debug

caffe 源码学习笔记(4) 激活函数

在看过caffe代码的三个核心部分,blob,layer,net之后,陷入了不知道以什么顺序继续看的困境。 blob,layer,net只是三

Faster Rcnn 目标检测算法

背景 2019年对了好几次faster rcnn,第一次是赛事之窗项目和北京的同事,对齐sdk和训练的实现。 第二次是被tensorRT4和ten

resnet 学习笔记

背景 基于Conv的方法在某年的ImageNet比赛上又重新被人想起之后,大家发现网络堆叠得越深,似乎在cv的各个任务上表现的越好。 然而事情当

caffe 源码学习笔记(3) Net

Net 基本介绍 网络通过组成和自微分共同定义一个函数及其梯度。 网络是一些Layer组成的DAG,也就是有向无环图,在caffe中通常由protot

caffe 源码学习笔记(2) Layer

layer 整体介绍 layer是模型计算的基本单元 类似于pytorch或者其他深度学习框架的op layer中的数据流向为,输入若干个blob,称之为&

caffe 源码学习笔记(1) Blob

迫于生计,开始看caffe代码。 会侧重于分析inference部分。 blob 整体介绍 blob的含义及目的 blob在逻辑上表示的就是所谓的tenso

记一次faster-rcnn debug记录

问题描述 一年debug 三次faster rcnn,每次都有新感觉(不 接到一个bug report,现象为某人脸模型,转换成trt模型,当batc

FPN:Feature Pyramid Networks 学习笔记

检测不同尺度的物体一直是计算机视觉领域中比较有挑战性的事情.我们先从之前的工作出发,并对比FPN比起之前的工作有哪些改进. 之前的工作 Featurized image pyramid 思