111qqz的小窝

老年咸鱼冲锋!

2020 to do List

就..终于再次出现了to do list. 原因是之前一直不知道如何置顶文章…. 竟然一下子就2020年了… 学习模型量化 学习onn

tensorRT 模型兼容性说明

名词说明 CUDA. 一般来说指的是CUDA SDK. 目前经常使用的是CUDA 8.0和CUDA 10.1两个版本. 8.0和10.1都是SDK的版本号. CUDNN. The NVIDIA CUD

【施工中】CSAPP archlab

背景 CSAPP:3e第四章配套的实验。 第四章是讲处理器架构的,章节的重点是实现一个六阶段流水线。 lab的内容也是,需要实现一个Y86-64的

【施工完成】CSAPP attacklab

背景 CSAPP 处理器那章快看完了,猛然发现竟然还有个attacklab.. 之前以为每一章只有一个lab 这个lab是教大家如何找到程序的漏洞并实施攻击

【施工完成】CSAPP bomb lab

背景 疫情肆虐,在家百无聊赖,于是开始拆炸弹. 炸弹分为6个阶段,每个阶段必须输入一个特定的字符串,否则炸弹就会爆炸. 提供给我们的是一个.c文件

caffe 源码学习笔记(3) Net

Net 基本介绍 网络通过组成和自微分共同定义一个函数及其梯度。 网络是一些Layer组成的DAG,也就是有向无环图,在caffe中通常由protot

caffe 源码学习笔记(2) Layer

layer 整体介绍 layer是模型计算的基本单元 类似于pytorch或者其他深度学习框架的op layer中的数据流向为,输入若干个blob,称之为&

caffe 源码学习笔记(1) Blob

迫于生计,开始看caffe代码。 会侧重于分析inference部分。 blob 整体介绍 blob的含义及目的 blob在逻辑上表示的就是所谓的tenso

记一次faster-rcnn debug记录

问题描述 一年debug 三次faster rcnn,每次都有新感觉(不 接到一个bug report,现象为某人脸模型,转换成trt模型,当batc

FPN:Feature Pyramid Networks 学习笔记

检测不同尺度的物体一直是计算机视觉领域中比较有挑战性的事情.我们先从之前的工作出发,并对比FPN比起之前的工作有哪些改进. 之前的工作 Featurized image pyramid 思

SSD: Single Shot MultiBox Detector 学习笔记

概述 SSD是一种单阶段目标检测算法.所谓单阶段,是指只使用了一个deep neural network,而不是像faster-rcnn这种两阶段网络. 为什

rankboost 算法学习笔记

boosting 算法是什么. 机缘使然,接触到了 Boosting 算法.Boosting是一种通过组合弱学习器来产生强学习器的通用且有效的方法. 动机是基于如下观察:尽管委员

Kubernetes(k8s)在深度学习模型转换方面的探索

年中的时候接了离职的同事模型转换的锅,在不断地更新迭代的过程中,发现了一些痛点。 发现k8s能够解决一部分痛点,因此来分享一下在这方面的探索。

faster rcnn 模型 tensorrt4与tensorrt5 结果不一致 踩坑记录

最近有同事report给我们,用同一个模型转换工具,转同一个faster rcnn 模型, 同样的sdk代码,在有些显卡上结果正常,但是再比较新的显卡上

The Programming Language Course

花了三个月的时间,终于跟完了这门编程语言课. 课程内容非常赞,而且也充分发挥了coursera平台的作用. 非要说缺点的话,就是这门课时间有点短

yuv 图像格式初探

概述 YUV是一种图像编码方式,或者称为色彩空间,与RGB是同级的概念. YUV是三个分量,Y,U和V,其中: Y 表示明亮度(Luminance或

Anchor Box Algorithm

动机 将一张图分成多个grid cell进行检测之后,每个cell只能检测到一个object. 如果这个grid cell中不止有一个物体要怎么办呢

目标检测领域的滑动窗口算法

对象检测(Object Detection)的目的是”识别对象并给出其在图中的确切位置”,其内容可解构为三部分: 识别某个对象(Classifi

写在毕业一年之后

转眼毕业一整年了,是时候做一个复盘了。 依稀记得刚入职的时候leader提醒我要有职业规划时的场景。总体来说,这一年虽然没有完全走在最正确的路

迁移博客到hugo

发现工作之后更新博客的频率低了很多,以及迫于不想在自己维护服务器了,因此决定把博客迁移到hugo上。 由于原本的博客内容实在是太多了,因此目前