置顶文章

8.7k 16 分钟

本篇博客记录博主每天的学习内容,希望能通过这种方式督促自己每天学习进步&反省总结,一定要做到每日更新!
🌍 让思想不落凡俗,让时光不被辜负 🌙

精选分类

文章列表

14k 25 分钟

FAT 文件系统起源于1980年左右,是MS-DOS首次支持的文件系统。它最初是一个简单的文件系统,适用于容量小于500k字节的软盘。随着时间的推移,它的规格不断扩大,支持的介质也越来越多,容量也越来越大。本篇文章着重讲解FAT32详细结构,穿插一些FAT12/16的内容,力图能让读者完全搞懂FAT文件系统的运行方式。
3.5k 6 分钟

本篇文章记录了从一台纯净的Ubuntu云主机开始配置C/C++开发环境的全过程,最终效果是可以使用CLion在本机远程开发和调试云主机中的CMake项目。
1.8k 3 分钟

C++是强类型语言,而有时又希望良好封装的模版类可以根据运行时的具体实例来执行不同操作,可以使用虚基类和纯虚函数,结合类型擦除来实现运行时的多态。
2.7k 5 分钟

低估了编译内核所需的磁盘大小,所以不得不对Ubuntu进行磁盘扩展,又由于没有图形化界面,无法使用可视化工具完成扩容,所以这里记录下使用命令行对Ubuntu虚拟机扩容的方法。
4.3k 8 分钟

本篇文章记录笔者从0开始构建一个linux kernel内核的全过程,构建一个内核是进行内核相关的研究的第一步,这里记录一下笔者在构建过程中遇到的各种问题,帮助后人少走些弯路。
16k 29 分钟

本篇记录了笔者学习LLVM IR和LLVM C++ API的学习笔记,目的是帮助对LLVM不熟悉但是需要入门LLVM及其API的同学快速入门。本篇内容涵盖了LLVM IR基础知识、LLVM C++ API开发环境配置、LLVM C++ API对指令/基本块/函数的操作。
2.2k 4 分钟

Transformer模型于2017年由Google的一个团队推出,正在逐步取代LSTM、GRU等RNN模型,成为在NLP问题上的首选模型。他被广泛应用于机器翻译、聊天机器人等领域,大名鼎鼎的BERT、ChatGPT等都采用了Transformer模型。本文是笔者学习Transformer模型的学习笔记,希望可以简单清晰的介绍Transformer的网络架构和其中涉及到的各项技术。
3.1k 6 分钟

卷积神经网络(Convolutional Neural Network)是一种专为图像处理设计的神经网络结构。相比于全连接神经网络结构,卷积神经网络在面对图像相关任务时有突出的表现,这是因为这种特殊的网络结构的设计思路与图像本身的特征紧密相关,也正因为如此,如果想将CNN应用于其他模态任务中,应根据具体模态的特征对网络进行修改。「著名的AlphaGo就是基于CNN结构来进行学习的」
1.3k 2 分钟

花了半天时间帮学姐调了一下原本项目代码无法在RTX 4080显卡上使用的bug,本质上是tensorflow2版本的问题,查了下之后发现这个问题其实还是很普遍的,所以记录一下。