内核启动全过程

 

内核启动全过程

标签: linuxlinux内核flash嵌入式buffer数据结构node

2011-10-21 01:19 4976人阅读 评论(0) 收藏 举报linux

 分类:编程

 

编程技巧(9) bootstrap

 

摘要缓存

咱们在这里讨论的是对嵌入式linux系统的启动过程的输出信息的注释,经过咱们的讨论,你们会对嵌入式linux启动过程当中出现的、之前感受熟悉的、但却又似是而非的东西有一个确切的了解,而且能了解到这些输出信息的前因后果。网络

嵌入式linux的启动信息是一个很值得咱们去好好研究的东西,它能将一幅缩影图呈如今咱们面前,来指导咱们更加深刻地理解linux内核。数据结构

 

关键字:linux,嵌入式,启动,bootloaderapp

正文dom

做为一名嵌入系统开发者,你必定遇到过下面的情景:socket

在某论坛上看到一篇帖子,上面贴着嵌入式linux开发板启动时的有关信息,而后你们在帖子里讨论着这个启动过程当中出现的问题,随机举例以下:

 

Linux version 2.4.20-uc0 (root@Local) (gcc version 2.95.3 
20010315 (release)(ColdFire patches - 20010318 from http://f 
(uClinux XIP and shared lib patches from http://www.snapgear.com/)) #20 三 6月 1 
8 00:58:31 CST 2003 
Processor: Samsung S3C4510B revision 6 
Architecture: SNDS100 
On node 0 totalpages: 4096 
zone(0): 0 pages. 
zone(1): 4096 pages. 
zone(2): 0 pages. 
Kernel command line: root=/dev/rom0 
Calibrating delay loop... 49.76 BogoMIPS 
Memory: 16MB = 16MB total 
Memory: 14348KB available (1615K code, 156K data, 40K init) 
Dentry cache hash table entries: 2048 (order: 2, 16384 bytes) 
Inode cache hash table entries: 1024 (order: 1, 
Mount-cache hash table entries: 512 (order: 0, 4096 bytes) 
Buffer-cache hash table entries: 1024 (order: 0, 4096 bytes) 
Page-cache hash table entries: 4096 (order: 2, 16384 bytes) 
POSIX conformance testing by UNIFIX 
Linux NET4.0 for Linux 2.4 
Based upon Swansea University Computer Society NET3.039 
Initializing RT netlink socket 
Starting kswapd 
Samsung S3C4510 Serial driver version 0.9 (2001-12-27) with no serial options en 
abled 
ttyS00 at 0x3ffd000 (irq = 5) is a S3C4510B 
ttyS01 at 0x3ffe000 (irq = 7) is a S3C451 
Blkmem copyright 1998,1999 D. Jeff Dionne 
Blkmem copyright 1998 Kenneth Albanowski 
Blkmem 1 disk images: 
0: BE558-1A5D57 [VIRTUAL BE558-1A5D57] (RO) 
RAMDISK driver initialized: 16 RAM disks of 1024K size 1024 blocksize 
Samsung S3C4510 Ethernet driver version 0.1 (2002-02-20) <mac@os.nctu.edu.tw> 
eth0: 00:40:95:36:35:34 
NET4: Linux TCP/IP 1.0 for NET4.0 
IP Protocols: ICMP, UDP, TCP 
IP: routing cache hash table of 512 buckets, 4Kbytes 
TCP: Hash tables configured (established 1024 bind 1024) 
VFS: Mounted root (romfs 
Freeing init memory: 40K

上面的这些输出信息,也可能包括你本身正在作的嵌入式linux开发板的输出信息,其中的每一行,每个字的含义,你是否深究过,或者说大部分的含义你能确切地知道的?本人想在这里结合本人在实践中一些体会来和广大嵌入式linux的开发者一块儿读懂这些信息。

咱们在这里将以一个真实的嵌入式linux系统的启动过程为例,来分析这些输出信息。启动信息的原始内容将用标记标出,以区别与注释。

 

嵌入式linux的启动主要分为两个阶段:

①     第一部分bootloader启动阶段

②     第二部分linux 内核初始化和启动阶段

第一节:start_kernel

第二节:用户模式( user_mode )开始,start_kernel结束

第三节:加载linux内核完毕,转入cpu_idle进程

 

第一部分 : bootloader启动

Boot loader v0.12

NOTE: this boot loader is designed to boot kernels made with the

2.4.xx releases

bootloader for XV

Built at Nov 20 2005 10:12:35

Bootloader头信息,版本,编译时间等,这个因不一样的bootloader的设计而有所不一样,由此你能看出bootloader的版本信息,有不少使用的是通用的bootloader,如u-boot,redboot等。

Loaded to 0x90060000

将bootloader加载到内存ram中的0x90060000处,即将bootloader加载到内存的高端地址处。

Linux内核将被bootloader加载到0x90090000处。

 

Found boot configuration

查找到了启动boot的配置信息

 

Booted from parallel flash

从flash中启动代码,此处的flash为并行闪存。Flash的分类列举以下:

闪存分三类:并行,串行,不可擦除。

①并行Parallel flash

 NOR Flash,Intel于1988年发明.随机读取的速度比较快,随机按字节写,每次能够传输8Bit。通常适合应用于数据/程序的存贮应用中.NOR还能够片内执行(execute-in-place)XIP.写入和擦除速度很低。

 NAND Flash,1989年,东芝公司发明.是以块和页为单位来读写的,不能随机访问某个指定的点.于是相对来讲读取速度较慢,而擦除和写入的速度则比较快,每次能够传输16Bit,通常适用在大容量的多媒体应用中,容量大。如:CF,SM.

②串行Serial Flash 是以字节进行传输的,每次能够传输1-2Bit.如:MMC,SD,MS卡.串行闪存器件体积小,引脚也少,成本相对也更低廉。 

③不可擦除Mask Rom Flash的特色是一次性录入数据,具备不可更改性,常常运用于游戏和需版权保护文件等的录入。其显著特色是成本低。

注意:任何flash器件的写入操做只能在空或已擦除的单元内进行,因此大多数状况下,在进行写入操做以前必须先执行擦除。NAND器件执行擦除操做是十分简单的,而NOR则要求在进行擦除前先要将目标块内全部的位都写为0。

从上面的信息,咱们能够对flash类型特色有个比较明确的了解。

 

CPU clock rate: 200 MHz

开发板上所使用的CPU的主频为200MHZ.

 

DRAM size is 128MB (128MB/0MB)

动态内存ram大小为128M。这里咱们列举一下内存的类型及工做原理。

根据内存的工做原理能够划分出两种内存:DRAM和SRAM

①DRAM表示动态随机存取存储器。这是一种以电荷形式进行存储的半导体存储器。DRAM中的每一个存储单元由一个晶体管和一个电容器组成。数据存储在电容器中。电容器会因为漏电而致使电荷丢失,于是DRAM器件是不稳定的。为了将数据保存在存储器中,DRAM器件必须有规律地进行刷新。

②SRAM是静态的,所以只要供电它就会保持一个值。通常而言,SRAM 比DRAM要快,这是由于SRAM没有刷新周期。每一个SRAM存储单元由6个晶体管组成,而DRAM存储单元由一个晶体管和一个电容器组成。相比而言,DRAM比SRAM每一个存储单元的成本要高。照此推理,能够判定在给定的固定区域内DRAM的密度比SRAM 的密度要大。

 

SRAM经常用于高速缓冲存储器,由于它有更高的速率;而DRAM经常用于PC中的主存储器,由于其拥有更高的密度。

在嵌入式系统中使用DRAM内存的设计比较普遍。

 

地址辅助说明:

先说明一下内存地址数字状况,主要是为了方便记忆。

能够访问的内存为4G。

0x40000000是1GB处;0x00040000是256K处,0x00020000是128K处,0x90000000是2GB多的地方。

1M->0x00100000,

2M->0x00200000,

8M->0x00800000

16M->0x01000000,

32M->0x02000000

256M->0x10000000

64K->0x00010000

4K->0x00001000

这个是个快速记忆的方法,你能够根据地址中1的位置和其后0的个数来快速知道换算后的地址是在多少兆的地方。好比,1的后面5个0,表明1M的大小,6个0,表明16M,以此类推。

 

 

ROMFS found at 0x46040000, Volume name = rom 43f291aa

romfs,只读文件系统所在的地址为:0x46040000 (flash映射后的第3分区)。

卷名为rom。

romfs和rootfs概念上有所区别。

 

flash在内存中的的起始地址为0x46000000,而ROMFS在flash分区上的起始位置为0x00040000,因此ROMFS在内存地址中的位置就为0x46040000。这个细节的部分能够参考flash分区时的地方,Creating 3 MTD partitions。

 

romfs中包括kernel和app应用,不包括bootloader和firmware信息头。romfs只读文件系统里的内容有不少种分类方法,咱们能够将kernel和app同时放里面,做为根文件系统下的一个文件,也能够在flash上另外划分区域来分别存放。

 

VFS虚拟文件系统交换器

在linux系统中,目前已经开发出多种文件系统,那么如何让这些文件系统能共存在一个系统中呢,从linux 2.0开始,引入了虚拟文件系统管理器 VFS的概念。

Linux 下的文件系统主要可分为三大块:

①     一是上层的文件系统的系统调用,

②     二是虚拟文件系统交换器 VFS(Virtual Filesystem Switch),

③     三是挂载到 VFS 中的各实际文件系统,例如 ext2,jffs 等。

VFS的确切叫法是Virtual Filesystem Switch虚拟文件系统交换器,这里的VFS中的“S”是指的switch,这个须要强调一下的,它很容易被混淆成“system”,若是理解成“system”将是不正确的,请多加注意。

VFS是具体文件系统filesystem的一个管理器。

VFS是Linux内核中的一个软件层,一种软件机制,它也提供了内核中的一个抽象功能,容许不一样的文件系统共存,能够称它为 Linux 的文件系统管理者,与它相关的数据结构只存在于物理内存当中。因此在每次系统初始化期间,Linux 都首先要在内存当中构造一棵 VFS 的目录树。VFS 中的各目录其主要用途是用来提供实际文件系统的挂载点。而rootfs将是这个目录树的根结点的(root),即 "/"目录,VFS的结构就是从这个rootfs开始的。有了VFS,那么对文件的操做将使用统一的接口,未来经过文件系统调用对 VFS 发起的文件操做等指令将被 rootfs 文件系统中相应的函数接口所接管。

 

注意:rootfs并非一个具体的文件系统类型,如jffs。它只是一个理论上的概念。在具体的嵌入系统实例中,能够将某种具体的文件系统设置为根文件系统rootfs,如咱们能够设置romfs为根文件系统,也能够设置jffs为根文件系统。

 

这里的ROMFS只读文件系统只是一种具体的文件系统类型,也是在嵌入系统中常用到的类型。

 

看完了上面的内容,之后你对出现的相似“kernel Panic:VFS:Unable to mount root fs on 0:00”的含义应该已经了解了。其中“VFS:”就是虚拟文件系统管理器操做时的输出信息了。

File linux.bin.gz found

linux kernel内核文件名,它是在只读文件系统romfs上的一个组成部分。

Unzipping image from 0x4639DE60 to 0x90090000, size = 1316021

将romfs中的linux kernel解压缩到0x90090000,以后会从这个内存地址启动内核。romfs为压缩格式文件,使用压缩的只读文件系统,是为了保持制做出来的整个系统所占用的flash空间减少。这个内核的大小为1.3M左右,这也是目前大多数嵌入系统所使用的方法。

Inptr = 0x00000014(20)

Inflating....

释放,解压中。。。(变大,充气, 膨胀)

Outcnt = 0x0030e7c8(3205064)

Final Inptr = 0x001414ad(1316013)

Original CRC = 0xcbd73adb

Computed CRC = 0xcbd73adb

作释放后的CRC检查

Boot kernel at 0x90090000 with ROMFS at 0x46040000

kernel已经被从romfs中释放到内存地址0x90090000处,能够跳转到此处启动kernel了,这里是指定的kernel的起始地址

Press 'enter' to boot

系统等待启动,后面将看到linux kernel的启动过程了。

 

第二部分 : linux内核初始化以及启动

第一节:start_kernel

Linux的源代码能够从www.kernel.org获得,或者你能够查看linux代码交叉引用网站:http://lxr.linux.no/ 进行在线的代码查看,这是一个很好的工具网站。

在start_kernel中将调用到大量的init函数,来完成内核的各类初始化。如:

page_address_init();

sched_init();

page_alloc_init();

init_IRQ();

softirq_init();

console_init();

calibrate_delay();

vfs_caches_init(num_physpages);

rest_init();

具体内容能够参考[http://lxr.linux.no/source/init/main.c]

Linux version 2.4.22-uc0 (root@local) (gcc version 2.95.3 20010315 (release)) #33 .?1.. 20 12:09:106

上面的代码输出信息,是跟踪linux代码分析后获得的,进入init目录下的main.c的start_kernel启动函数.

嵌入式linux使用的是linux内核版本为2.4.22

linux source code代码中start_kernel中输出的linux_banner信息。这个信息是每一个linux kernel都会打印一下的信息,若是你没有把这句去掉的话。

 

Found bootloader memory map at 0x10000fc0.

bootloader通过内存映射后的地址为:0x10000fc0, 按上面的地址换算方法,1后面有7个0,那么虚拟地址256M左右处。

Processor: ARM pt110 revision 0

pT110是ARM微处理器arm核的一种,另外一种为pT100。此处为显示ARM的类型。

On node 0 totalpages: 20480

zone(0): 20480 pages.

zone(0): Set minimum memory threshold to 12288KB

Warning: wrong zone alignment (0x90080000, 0x0000000c, 0x00001000)

zone(1): 0 pages.

zone(2): 0 pages.

预留内存大小,在节点0上总共20页, zone(0) 设置最小内存为12MB, zone(1)和zone(2)为0页。警告:对齐不正确

Kernel command line: root=/dev/mtdblock3

Kernel 启动命令设为:/dev/mtdblock3(在后面的说明中会看到mtdblock3是指的flash上的romfs分区。),用来指定根文件系统所在的位置,kernel会将块设备mtdblock3看成文件系统来处理。

也就是说,内核会根据上面的kernel命令行,知道只读文件系统romfs将是根文件系统rootfs。

start_kernel(void)中输出的上面的这句信息。

这行命令是在linux内核启动过程当中都会输出的一句。

Console: colour dummy device 80x30

代码中console_init()的输出信息, 显示控制台属性:通常使用VGA text console,标准是80 X 25行列的文本控制台,这里是对属性进行了设置。

serial_xx: setup_console @ 115

串口设置值为115200,此为波特率输出信息。对串口设置的信息作一个打印的动做,在调试时会很是有用。

Calibrating delay loop... 82.94 BogoMIPS

Calibrate:校准, 进入时延校准循环。检查CPU的MIPS(每秒百万条指令),Bogo是Bogus(伪)的意思。这里是对CPU进行一个实时测试,来获得一个大致的MIPS数值

Bogomips,是由linus Torvalds写的, 是Linux操做系统中衡量计算机处理器运行速度的一种尺度。提供这种度量的程序被称为BogoMips,当启动计算机时,BogoMips能显示系统选项是否处于最佳性能。

linux内核中有一个函数calibrate_delay(),它能够计算出cpu在一秒钟内执行了多少次一个极短的循环,计算出来的值通过处理后获得BogoMIPS值

你能够将计算机的bogomips与计算机处理器的bogomips进行比较。Torvalds称这个程序为BogoMips来暗示两台计算机间的性能度量是错误的,由于并不是全部起做用因素都能被显示出来或被承认。尽管计算机基准中常常用到MIPS,但环境的变化容易致使度量的错误。Bogomips能测出一秒钟内某程序运行了多少次。

察看/proc/cpuinfo文件中的最后一行也能获得这个数值。

上面这个输出,在全部的linux系统启动中都会打印出来。

 

进入内存初始化

mem_init(void), [arch/i386/mm/init.c]

Memory: 80MB = 80MB total

Memory: 76592KB available (1724K code, 2565K data, 72K init)

当前内存使用状况,将列出总的内存大小, 及分配给内核的内存大小:包括代码部分,数据部分,初始化部分,总共恰好4M。请留意此处的内核的内存大小的各个值。

 

进入虚拟文件系统VFS初始化

vfs_caches_init()

Dentry cache hash table entries: 16384 (order: 5, 131072 bytes)

Inode cache hash table entries: 8192 (order: 4, 65536 bytes)

Mount cache hash table entries: 512 (order: 0, 4096 bytes)

Buffer cache hash table entries: 4096 (order: 2, 16384 bytes)

Page-cache hash table entries: 32768 (order: 5, 131072 bytes)

名词:

①     Dentry:目录数据结构

②     Inode:i节点

③     Mount cache:文件系统加载缓冲

④     buffer cache:内存缓冲区

⑤     Page Cache:页缓冲区

Dentry目录数据结构(目录入口缓存),提供了一个将路径名转化为特定的dentry的一个快的查找机制,Dentry只存在于RAM中;

i节点(inode)数据结构存放磁盘上的一个文件或目录的信息,i节点存在于磁盘驱动器上;存在于RAM中的i节点就是VFS的i节点,dentry所包含的指针指向的就是它;

buffer cache内存缓冲区,相似kupdated,用来在内存与磁盘间作缓冲处理;

Page Cache 用来加快对磁盘上映像和数据的访问。

在内存中创建各个缓冲hash表,为kernel对文件系统的访问作准备。

VFS(virtual filesystem switch)虚拟文件切换目录树有用到相似这样的结构表。

上面的输出信息,在通常的linux启动过程当中都会看到。

POSIX conformance testing by UNIFIX

conformance:顺应, 一致。即POSIX适应性检测。UNIFIX是一家德国的技术公司,Linux 本来要基于 POSIX.1 的, 可是 POSIX 不是免费的, 并且 POSIX.1 证书至关昂贵. 这使得 Linux 基于 POSIX 开发至关困难. Unifix公司(Braunschweig, 德国) 开发了一个得到了 FIPS 151-2 证书的 Linux 系统. 这种技术用于 Unifix 的发行版 Unifix Linux 2.0 和 Lasermoon 的 Linux-FT。

在2.6的内核中就将上面的这句输出给拿掉了。

 

第二节:用户模式( user_mode )开始,start_kernel结束

PCI: bus0: Fast back to back transfers disabled

PCI: Configured XX as a PCI slave with 128MB PCI memory

PCI: Each Region size is 16384KB

PCI: Reserved memory from 0x10080000 to 0x15080000 for DMA and mapped to 0x12000000

设备的初始化 init()--->do_basic_init()--->pci_init(),初始化PCI,检测系统的PCI设备。

Linux NET4.0 for Linux 2.4

Based upon Swansea University Computer Society NET3.039

英国威尔士,斯旺西大学的NET3.039, TCP/IP 协议栈

此信息,在linux启动过程当中都会出现。

Initializing RT netlink socket

对Socket的初始化,socket_init(),Netlink 一种路由器管理协议(linux-2.4.22\net\core\Rtnetlink.c,Routing netlink socket interface: protocol independent part。 其中RT是route路由的意思。这句输出是在create产生rtnetlink的socket套接字时的一个调试输出。)

此信息,在linux启动过程当中都会出现。

Starting kswapd

启动交换守护进程kswapd,进程IO操做例程kpiod

kswapd能够配合kpiod运行。进程有时候无事可作,当它运行时也不必定须要把其全部的代码和数据都放在内存中。这就意味着咱们能够经过把运行中程序不用的内容切换到交换分区来更好的是利用内存。大约每隔1秒,kswapd醒来并检查内存状况。若是在硬盘的东西要读入内存,或者内存可用空间不足,kpiod就会被调用来作移入/移出操做。kswapd负责检查,kpiod负责移动。

Journalled Block Device driver loaded

加载日志块设备驱动。

日志块设备是用来对文件系统进行日志记录的一个块设备。日志文件系统是在传统文件系统的基础上,加入文件系统更改的日志记录。

它的设计思想是:跟踪记录文件系统的变化,并将变化内容记录入日志。日志文件系统在磁盘分区中保存有日志记录,写操做首先是对记录文件进行操做,若整个写操做因为某种缘由(如系统掉电)而 中断,系统重启时,会根据日志记录来恢复中断前的写操做。在日志文件系统中,全部的文件系统的变化都被记录到日志,每隔必定时间,文件系统会将更新后的元 数据及文件内容写入磁盘。在对元数据作任何改变之前,文件系统驱动程序会向日志中写入一个条目,这个条目描述了它将要作些什么,而后它修改元数据。

devfs: v1.12c (20020818) Richard Gooch (rgooch@atnf.csiro.au)

devfs: boot_options: 0x1

Devfs模块的输出信息。

设备文件系统devfs,版本1.12c,

pty: 256 Unix98 ptys configured

Pty模块的输出信息,与控制台操做有关的设置。

将经过 devpts 文件系统使用 Unix98 PTYs,(Pseudo-ttys (telnet etc) device是伪ttys设备的缩写。

①              TTY(/dev/tty)是TeleTYpe的一个老缩写,为用户输入提供不一样控制台的设备驱动程序。它的名字来源于实际挂接到 UNIX系统的、被称为电传打字机(teletype)的终端。在Linux下,这些文件提供对虚拟控制台的支持,能够经过按<Alt-F1>到<Alt-F6>键来访问这些虚拟控制台。这些虚拟控制台提供独立的、同时进行的本地登陆对话过程

②              ttys(/dev/ttys)是计算机终端的串行接口。/dev/ttyS0对应MS-DOS下的 COM1。

 

使用 make dev脚本MAKEDEV来创建pty文件。这样系统内核就支持Unix98风格的pty了。在进行Telnet登陆时将要用到/dev/pty设备。 pty是伪终端设备,在远程登陆等须要以终端方式进行链接,但又并不是真实终端的应用程序中必须使用这种设备,如telnet或xterm等程序。Linux 2.2之后增添了UNIX98风格的Pty设备,它使用一个新的文件系统(devpts针对伪终端的文件系统)和一个克隆的设备cloning device来实现其功能。

linux-2.4.22\drivers\char\Pty.c, 在devfs_mk_dir (NULL, "pts", NULL);时会输出上面的信息。

 

loop: loaded (max 8 devices)

加载返还块设备驱动,最多支持8个设备

 

8139too Fast Ethernet driver 0.9.27

eth0: RealTek RTL8139 at 0x60112000, 00:10:0d:42:a0:03, IRQ 14

eth0: Identified 8139 chip type 'RTL-8100B/8139D'

网卡驱动,基地址为:0x60112000, MAC地址:00:10:0d:42:a0:03, 中断号:14

RTL8139 的 接收路径设计成一个环形缓冲区(一段线性的内存,映射成一个环形内存)。当设备接收到数据时,数据的内容就保存在这个环形缓冲区内并更新下个存储数据的地 址(第一个数据包的开始地址+第一个数据包的长度)。设备会一直保留缓冲区内的数据直到整个缓冲区耗尽。这样,设备会再次重写缓冲区内起始位置的内容,就 像一个环那样。

从 2.2 版内核升级到 2.4 版时, RTL-8139 支持模块已再也不叫 rtl8139,而叫它 8139too,如今你再看到8139too就不会不明白它的来由了吧。

SCSI subsystem driver Revision: 1.00

USB设备信息,USB会被当作SCSI来处理。

mumk_register_tasklet: (1) tasklet 0x905bf9c0 status @0x9025e974

软中断信息输出。Tasklet是在2.4中才出现,它是为了更好地利用多CPU。

 

Probing XX Flash Memory

探测 XX的闪存(Flash Memory),"NOR NAND Flash Memory Technology"

 

Amd/Fujitsu Extended Query Table v1.3 at 0x0040

number of CFI chips: 1

AMD与富士通合资设立的Flash供货商Spansion。AMD因获利不佳,已经退出Flash市场,后续由Spansion合资公司经营.主要生产NOR类型的flash,特色是容量小,速度快。Spansion商标的flash,在咱们开发中会常常看到。之后你们看到Spansion的芯片,就能了解到它和AMD还有富士通的前因后果了。

Common flash Interface (CFI)是指一个统一的flash访问接口,表示这种flash是这种接口类型的。

Using buffer write method

使用flash写缓冲方式

flash提供了写BUFFER的命令来加快对flash上块的操做。对Flash擦除和写数据是很慢的。若是用写BUFFER的命令会快一点。据手册上说,会快20倍。Buffer Size :5 bytes的buffer缓冲不是每一个块都有,是整个flash只有一个5 bytes的buffer,用写BUFFER命令对全部的块进行写操做,都要用同一个buffer,写Buffer是主要检查buffer是否available,其实buffer起缓冲做用,来提升工做效率。

好比某flash有128个128K字节块。容许用户对任意块进行字节编程和写缓冲器字节编程操做,每字节编程时间为210μs;若采用写缓冲器字节编程方式,32字节编程共需218μs,每字节编程时间仅为6.8μs。芯片的块擦除时间为1s,容许在编程或块擦除操做的同时进行悬挂中断去进行读操做,待读操做完成后,写入悬挂恢复命令,再继续编程或块擦除。

 

Creating 3 MTD partitions on "XX mapped flash":

0x00000000-0x00020000 : "BootLoader"

0x00020000-0x00040000 : "Config"

0x00040000-0x01000000 : "Romfs"

此处为重要信息部分,须要特别留意。

在内存中映射过的flash,建立三个MTD分区:

flash上的内容将被映射到内存中的对应地址

前128K为BootLoader--->0x00000000-0x00020000

接着的128K为系统配置信息Config存放的位置--->0x00020000-0x00040000

再后面的 16M - 2X128K 为romfs的存放处.--->0x00040000-0x01000000

上面的内容,你们能够根据前面的换算公式获得。

 

A> 编译的bootloader通常大小约50K左右;

B> 在此处就知道了配置信息config是放在第2分区中的;

C> 制做的romfs的大小,通常为8M或10M左右,因此能放得下;

 

嵌入式Linux内核的块设备驱动:

对于linux 的根文件系统,目前有三种块设备的驱动能够选择,它们分别是:

a) Blkmem 驱动

b) MTD 驱动

c) RAM disk 驱动

Blkmem 驱动是专门为嵌入式linux 开发的一种块设备驱动,它是嵌入式linux系统中最为古老和通用的块设备驱动。它原理相对简单可是配置比较复杂,须要根据你即的Flash的分区使用状况来修改代码。固然修改的结果是它能够对一些NOR型的Flash进行读写操做。不过目前支持的Flash类型不够多。若是新加入对一种Flash的支持须要做的工做量比较大。

Linux的MTD驱动是标准Linux的Flash驱动。它支持大量的设备,有足够的功能来定义Flash的分区,进行地址映射等等。使用MTD你能够在一个系统中使用不一样类型的Flash。它能够将不一样的Flash组合成一个线性的地址让你来使用。

在标准的Linux 2.4内核中MTD有一系列的选项,你能够根据我的系统的须要来选择,定制。

另一种选择就是RAM disk 驱动。在PC上它常常用于没有硬盘的Linux的启动过程。它和Flash没有直接的关系。不过当Flash上启动的是通过压缩的内核时。RAM disk 能够做为根文件系统。

MTD 驱动提供了对Flash强大的支持,你经过它甚至能够在Flash上运行一个能够读写的真正的文件系统,好比JFFS2。而Blkmem驱动则可望不可即。

NET4: Linux TCP/IP 1.0 for NET4.0

调用inet_init [ linux-2.4.22\net\ipv4\Af_inet.c ]时的输出信息, 在启动过程当中被socket.c调用到。

IP Protocols: ICMP, UDP, TCP, IGMP

列出能够支持的IP协议,此处为kernel源代码inet_add_protocol(p);的输出。

在linux启动过程当中,都会看到这句的输出。

IP: routing cache hash table of 512 buckets, 4Kbytes

IP路由代码的输出信息。

ip_rt_init [ linux-2.4.22\net\ipv4\Route.c ],Set the IP module up,路由缓冲hash表

TCP: Hash tables configured (established 8192 bind 8192)

TCP协议初始化输出信息。tcp_init [ linux-2.4.22\net\ipv4\Tcp.c ],

NET4: Unix domain sockets 1.0/SMP for Linux NET4.0.

UNIX网络协议信息。

af_unix_init[ linux-2.4.22\net\unix\Af_unix.c ], 多种链接的一种(IPv4, UNIX domain sockets, IPv6和IrDA). SMP 对称多处理器—Symmetrical Multi Processing,这里主要是指UNIX的一些网络协议.

 

上面的关于网络的输出信息是在linux启动信息中都会出现的。

加载各类文件系统

cramfs: wrong magic

会出现“cramfs: wrong magic”,别担忧这没有什么害处,这个是kernel的书写bug,在2.6中有修改之,它是一个警告信息,用来检查cramfs的superblock超级块的。superblock也是VFS要用到的数据结构。

代码linux-2.4.22\fs\cramfs\Inode.c:

2.4

cramfs_read_super(。。。)

/* Do sanity checks on the superblock */

       if (super.magic != CRAMFS_MAGIC) {

              /* check at 512 byte offset */

              memcpy(&super, cramfs_read(sb, 512, sizeof(super)), sizeof(super));

              if (super.magic != CRAMFS_MAGIC) {

                     printk(KERN_ERR "cramfs: wrong magic\n");

                     goto out;

              }

       }

 

2.6

if (super.magic != CRAMFS_MAGIC) {

                         if (!silent)

                                 printk(KERN_ERR "cramfs: wrong magic\n");

                         goto out;

                 }

超级块是文件系统的“头部”。它包含文件系统的状态、尺寸和空闲磁盘块等信息。若是损坏了一个文件系统的超级块(例如不当心直接将数据写到了文件系统的超级块分区中),那么系统可能会彻底不识别该文件系统,这样也就不能安装它了,即便采用e2fsck 命令也不能处理这个问题。

 

Cramfs文件系统:

cramfs 是 Linus Torvalds 本人开发的一个适用于嵌入式系统的小文件系统。因为它是只读的,因此,虽然它采起了 zlib 作压缩,可是它仍是能够作到高效的随机读取。 cramfs 不会影响系统读取文件的速度,又是一个高度压缩的文件系统。

咱们制做image文件以后,咱们还要考虑怎样才能在系统运行的时候,把这个 image 文件 mount 上来,成为一个可用的文件系统。因为这个 image 文件不是一个一般意义上的 block 设备,咱们必须采用 loopback 设备来完成这一任务,如:

mount -o loop -t cramfs /usr.img /usr

这样,就能够经由 loopback 设备,把 usr.img 这个 cramfs 的 image 文件 mount 到 /usr 目录上去了。内核中须要对loopback这个设备的支持。

cramfs 的压缩效率通常都能达到将近 50%。

Cramfs经过优化索引节点表的尺寸和除去传统文件系统中文件之间的空间浪费来达到节约空间的目的。它还使用了zlib压缩,实现优于2:1的压缩比例。解压缩过程的系统开销并非很大,由于Cramfs支持指定单块的解压,而并没必要解压缩整个文件。

Cramfs不只能节省空间,还能避免非正常关机致使的等待fsck或手工进行fsck的麻烦。它经过只读的方式达到这一目的。

RamDisk有三种实现方式:

在Linux中能够将一部份内存mount为分区来使用,一般称之为RamDisk,分为:

Ramdisk, ramfs, tmpfs.

① 第一种就是传统意义上的,能够格式化,而后加载。

这在Linux内核2.0/2.2就已经支持,其不足之处是大小固定,以后不能改变。

为了可以使用Ramdisk,咱们在编译内核时须将block device中的Ramdisk支持选上,它下面还有两个选项,一个是设定Ramdisk的大小,默认是4096k;另外一个是initrd的支持。

若是对Ramdisk的支持已经编译进内核,咱们就可使用它了:

首先查看一下可用的RamDisk,使用ls /dev/ram*

首先建立一个目录,好比test,运行mkdir /mnt/test;

而后对/dev/ram0 建立文件系统,运行mke2fs /dev/ram0;

最后挂载 /dev/ram0,运行mount /dev/ram /mnt/test,就能够象对普通硬盘同样对它进行操做了。

② 另两种则是内核2.4才支持的,经过Ramfs或者Tmpfs来实现:

它们不需通过格式化,用起来灵活,其大小随所须要的空间而增长或减小。

Ramfs顾名思义是内存文件系统,它处于虚拟文件系统(VFS)层,而不像ramdisk那样基于虚拟在内存中的其余文件系统(ex2fs)。

于是,它无需格式化,能够建立多个,只要内存足够,在建立时能够指定其最大能使用的内存大小。

若是你的Linux已经将Ramfs编译进内核,你就能够很容易地使用Ramfs了。建立一个目录,加载Ramfs到该目录便可:

# mkdir /testRam

# mount -t ramfs none /testRAM

缺省状况下,Ramfs被限制最多可以使用内存大小的一半。能够经过maxsize(以kbyte为单位)选项来改变。

# mount -t ramfs none /testRAM -o maxsize=2000 (建立了一个限定最大使用内存为2M的ramdisk)

③ Tmpfs是一个虚拟内存文件系统,它不一样于传统的用块设备形式来实现的Ramdisk,也不一样于针对物理内存的Ramfs。

Tmpfs可使用物理内存,也可使用交换分区。在Linux内核中,虚拟内存资源由物理内存(RAM)和交换分区组成,这些资源是由内核中的虚拟内存子系统来负责分配和管理。

Tmpfs向虚拟内存子系统请求页来存储文件,它同Linux的其它请求页的部分同样,不知道分配给本身的页是在内存中仍是在交换分区中。同Ramfs同样,其大小也不是固定的,而是随着所须要的空间而动态的增减。

使用tmpfs,首先你编译内核时得选择"虚拟内存文件系统支持(Virtual memory filesystem support)" 。

而后就能够加载tmpfs文件系统了:

# mkdir -p /mnt/tmpfs

# mount tmpfs /mnt/tmpfs -t tmpfs

一样能够在加载时指定tmpfs文件系统大小的最大限制:

# mount tmpfs /mnt/tmpfs -t tmpfs -o size=32m

FAT: bogus logical sector size 21072

具体的文件系统FAT格式。

虚拟逻辑扇区大小为20K,linux-2.4.22\fs\fat\Inode.c。

在初始化MS-DOS文件系统时,读MS-DOS文件系统的superblock,函数fat_read_super中输出的上面的信息。

UMSDOS: msdos_read_super failed, mount aborted.

UMSDOS:一种文件系统,特色容量大但相对而言不大稳定。是Linux 使用的扩展了的DOS文件系统。它在 DOS 文件系统下增长了长文件名、 UID/GID、POSIX 权限和特殊文件 (设备、命名管道等)功能,而不牺牲对 DOS 的兼容性。容许一个普通的msdos文件系统用于Linux,并且无须为它创建单独的分区,特别适合早期的硬盘空间不足的硬件条件。

VFS: Mounted root (romfs filesystem) readonly

虚拟文件系统VFS(Virtual Filesystem Switch)的输出信息。

再次强调一下一个概念。VFS 是一种软件机制,也可称它为 Linux 的文件系统管理者,它是用来管理实际文件系统的挂载点,目的是为了能支持多种文件系统。kernel会先在内存中创建一颗 VFS 目录树,是内存中的一个数据对象,而后在其下挂载rootfs文件系统,还能够挂载其余类型的文件系统到某个子目录上。

Mounted devfs on /dev

加载devfs设备管理文件系统到dev安装点上。

/dev是咱们常常会用到的一个目录。

在2.4的kernel中才有使用到。每次启动时内核会自动挂载devfs。

devfs提供了访问内核设备的命名空间。它并非创建或更改设备节点,devfs只是为你的特别文件系统进行维护。通常咱们能够手工mknod创件设备节点。/dev目录最初是空的,里面特定的文件是在系统启动时、或是加载模组后驱动程序载入时创建的。当模组和驱动程序卸载时,文件就消失了。

Freeing init memory: 72K

释放1号用户进程init所占用的内存。

 

第三节:加载linux内核完毕,转入cpu_idle进程

 

系统启动过程当中进程状况:

①init进程

通常来讲, 系统在跑完 kernel bootstrapping 内核引导自举后(被装入内存、已经开始运行、已经初始化了全部的设备驱动程序和数据结构等等), 就去运行 init『万process之父』, 有了它, 才能开始跑其余的进程,所以,init进程,它是内核启动的第一个用户级进程,它的进程号老是1。

你能够用进程查看命令来验证

# ps aux

PID Uid VmSize Stat Command

1 0 SW init

2 0 SW [keventd]

3 0 SWN [ksoftirqd_CPU0]

4 0 SW [kswapd]

5 0 SW [bdflush]

6 0 SW [kupdated]

7 0 SW [rbwdg]

9 0 SW [mtdblockd]

10 0 SW [khubd]

80 0 SW [loop0]

另外 Linux 有两个 kernel 类的 process 也开始跑了起来,一个是 kflushd/bdflush,另外一个是 kswapd;

只有这个 init 是彻底属于 user 类的进程, 后二者是 kernel假借 process 进程之名挂在进程上。

init有许多很重要的任务,好比象启动getty(用于用户登陆)、实现运行级别、以及处理孤立进程。

init 一开始就去读 /etc/inittab (init初始化表),初始化表是按必定格式排列的关于进程运行时的有关信息的。init程序须要读取/etc/inittab文件做为其行为指针。这个 inittab 中对于各个runlevel运行级别要跑哪些 rc 或 spawn 生出什么有很清楚的设定。

通常, 在Linux中初始化脚本在/etc/inittab 文件(或称初始化表)中能够找到关于不一样运行级别的描述。inittab是以行为单位的描述性(非执行性)文本,每个指令行都是固定格式

inittab中有respawn项,但若是一个命令运行时失败了,为了不重运行的频率过高,init将追踪一个命令重运行了多少次,而且若是重运行的频率过高,它将被延时五分钟后再运行。
 

② kernel进程

A> 请注意init是1号进程,其余进程id分别是kflushd/ bdflush, kupdate, kpiod and kswapd。这里有一个要指出的:你会注意到虚拟占用(SIZE)和实际占用(RSS)列都是0,进程怎么会不使用内存呢?

这些进程就是内核守护进程。大部份内核并不显示在进程列表里。守护进程在init以后启动,因此他们和其余进程同样有进程ID,可是他们的代码和数据都存放在内核占有的内存中。在列表中使用中括号来区别与其余进程。

B> 输入和输出是经过内存中的缓冲来完成的,这让事情变得更快,程序的写入会存放在内存缓冲中,而后再一块儿写入硬盘。守护进程kflushd和kupdate 管理这些工做。kupdate间断的工做(每5秒)来检查是否有写过的缓冲,如过有,就让kflushd把它们写入磁盘。

C> 进程有时候无事可作,当它运行时也不必定须要把其全部的代码和数据都放在内存中。这就意味着咱们能够经过把运行中程序不用的内容切换到交换分区来更好的是利用内存。把这些进程数据移入/移出内存经过进程IO管理守护进程kpiod和交换守护进程kswapd,大约每隔1秒,kswapd醒来并检查内存状况。若是在硬盘的东西要读入内存,或者内存可用空间不足,kpiod就会被调用来作移入/移出操做。

D> bdflush - BUF_DIRTY, 将dirty缓存写回到磁盘的核心守护进程。 对于有许多脏的缓冲区(包含必须同时写到磁盘的数据的缓冲区)的系统提供了动态的响应。它在系统启动的时候做为一个核心线程启动,它叫本身为“kflushd”,而这是你用ps显示系统中的进程的时候你会看得的名字。即按期(5秒)将脏(dirty)缓冲区的内容写入磁盘,以腾出内存;

E> ksoftirqd_CPUx 是一个死循环, 负责处理软中断的。它是用来对软中断队列进行缓冲处理的进程。当发生软中断时,系统并不急于处理,只是将相应的cpu的中断状态结构中的active 的相应的位,置位,并将相应的处理函数挂到相应的队列,而后等待调度时机来临,再来处理.

ksoftirqd_CPUx是由cpu_raise_softirq()即cpu触发中断,唤醒的内核线程,这涉及到软中断,ksoftirqd的代码参见 [kernel/softirq.c]

F> keventd,它的任务就是执行 scheduler 调度器队列中的任务,keventd 为它运行的任务提供了可预期的进程上下文。

G> khubd, 是用来检测USB hub设备的,当usb有动态插拔时,将交由此内核进程来处理。在检测到有hub事件时会有相应的动做(usb_hub_events())

H> mtdblockd是用来对flash块设备进行写操做的守护进程。

NAND类型的Flash须要MTD(Memory Technology Devices 内存技术驱动程序)驱动的支持才能被linux所使用。

NAND的特色是不能在芯片内执行(XIP,eXecute In Place),须要把代码读到系统RAM中再执行,传输效率不是最高,最大擦写次数量为一百万次,但写入和擦除的速度很快,擦除单元小,是高数据存储密度的最佳选择。

NAND须要I/O接口,所以使用时须要驱动程序。

I> loop0 是负责处理loop块设备的(回环设备)。loopback device指的就是拿文件来模拟块设备, 在咱们这里,loop设备主要用来处理须要mount到板上的文件系统,相似mount /tmp/rootfs /mnt -o loop。.咱们的实例有:mount -o loop -t cramfs /xxx.bin /xxx 也就是将xxx.bin这个文件mount到板上来模拟cramfs压缩ram文件系统。loop0进程负责对loop设备进行操做。

loopback设备和其余的块设备的使用方法相同。特别的是,能够在该设备上创建一个文件系统,而后利用mount命令把该系统映射到某个目录下以便访问。这种整个创建在一个普通磁盘文件上的文件系统,就是虚拟文件系统 (virtual file system)。

 

总结:

上面的内容是本人为了在实际开发中更加清楚地了解嵌入式linux的启动过程而作的一个总结性的文章。

在对嵌入式linux的启动过程作了一个详细注释后,你们会对涉及到嵌入系统的各个概念有了一个更加明确的认识,并能对嵌入系统的软硬件环境的有关设置更加清楚。当你本身动手结合linux源代码来分析时,将会有一个清楚的全局观。

相关文章
相关标签/搜索