Linux PCI总线驱动-1
Linux PCI總線驅動-1
- 一、PCI總線介紹
- 1. PCI介紹
- 2. PCI接口
- 3. PCI-X介紹
- 4. PCI-E介紹
- 4.1 下圖從上到下依次是PCIEX16,X1,X4
- 4.2 PCI-E各版本的傳輸速度
- 4.3 PCI-E不同傳輸通道數(shù)設備的金手指數(shù)和長度
- 4.4 三種接口的傳輸速度比較
- 二、pci設備基礎知識
- 2.1 內核中的pci活動
- 2.1.1 枚舉
- 2.1.2 配置
- 2.1.3 pci初始化流程
- 2.1.4 關于入口
- 三、PCI總線與配置空間
- 3.1 PCIE所有數(shù)據(jù)結構
- 3.2 PCI 總線描述:pci_bus
- 3.3 pci設備描述符:pci_dev
- 3.4 PCI配置空間
- 3.5 PCI DMA 相關API
- 3.6 PCI 設備驅動其他常用 API
- 四、PCI設備驅動結構
- 4.1 pci_driver結構體
- 4.2 PCI設備驅動的組成
- 4.3 驅動實例
- 參考
一、PCI總線介紹
1. PCI介紹
外設互聯(lián)標準(或稱個人電腦接口,Personal Computer Interface),實際應用中簡稱PCI(Peripheral Component Interconnect),是一種連接電子計算機主板和外部設備的總線標準。一般PCI設備可分為兩種形式:直接布放在主板上的集成電路,在PCI規(guī)范中稱作”平面設備“,另一種是安裝在插槽中的擴展卡。
PCI bus常見于現(xiàn)代的個人計算機中,已經(jīng)取代ISA和VESA局部總線,成為標準擴展總線。PCI總線最終將被PCI Express或者更先進的技術取代。
PCI是并行基于總線控制,所有設備共同分享單向32bit/64bit并行總線(半雙工)。如果有多個PCI設備共用總線,他們將共享總的傳輸速率。
PCI標準于1993年7月被Intel發(fā)明,每個接口最多連接1個設備,可以工作在33MHz和66MHz(工作時電壓33MHz為5V,66MHz為3V),2004年被PCI Express替代。
PCI插槽可以插很多類型的卡,包括網(wǎng)卡、聲卡、調制解調器(內置Modem)、電視卡、磁盤控制器(RAID卡)、視頻采集卡、IDE接口卡、IEEE1394卡、USB卡和串行等,原本也可以插顯卡,但很快PCI的帶寬不足以支持顯卡的性能。PCI插槽通過插不同的卡幾乎可以實現(xiàn)所有的外接功能。后來顯卡使用AGP插槽,現(xiàn)在已被PCI Express插槽取代。
PCI接口分32bit和64bit兩種。早期的PCI(PCI2.1標準)工作在32bit、33.33MHz、5V下,最大傳輸速度133MB/s(33.33MHz * 32bit / 8bit/byte = 133MB/s),后來又出現(xiàn)了PCI2.2 2.3等標準。現(xiàn)在PCI有32bit和64bit兩種,32bit的一般用在PC上,64bit的一般應用于服務器上,64bit的要比32bit的長一些。32bit和64bit都有5v和3.3v電壓兩種,5v電壓的是PCI2.1標準工作在33MHz,3.3v電壓的是PCI2.2標準工作在66MHz的時鐘頻率上。頻率或者位寬增加都會增加傳輸速率,實現(xiàn)也是通過這兩個指標來實現(xiàn)的。
在PC上,64位PCI還沒有成為主流。原因在于制造64位和66MHzPCI主板的難度很大。首先,使用64位PCI插槽需要64位南橋芯片組支持,該南橋控制器必須可以正確處理64位的數(shù)據(jù)。Intel和AMD都有64位的南橋可提供給主板廠商,但是價格很高;其次是因為66MzPCI槽對主板配套元件要求極高,且需要特殊的布線設計。這就是66MHzPCI技術一直停留在服務器領域的原因。
2. PCI接口
PCI有幾種不同的接口樣圖:現(xiàn)在生產的多為通用模式的以防插錯。還有64bit統(tǒng)一比32bit的寬出右邊缺口的部分。
PCI 32bit的網(wǎng)卡都可以查到PCI 64bit插槽上使用。3.3v的插到3.3v的上,5v的插到5v的上。
有一些PCI網(wǎng)卡同時支持32位和64位標準的兼容網(wǎng)卡,這類網(wǎng)卡相比前面介紹的純64位PCI網(wǎng)卡來說,在外觀上也有一個明顯的區(qū)別,那就是它又多了一個缺口,有3個缺口(下圖右邊第三個圖)。
3. PCI-X介紹
PCI-X是傳統(tǒng)PCI總線的改版,有更高的帶寬。PCI-X插槽類型基本于64bit的PCI插槽相同。
PCI-X于1998年被IBM、HP和Compaq發(fā)明,64bit位寬,傳輸方式并發(fā),2004年被新出的PCI Express替代。PCI-X多用于服務器上,不過也是曇花一現(xiàn)。
4. PCI-E介紹
PCI Express是INTEL提出的新一代的總線接口,PCI Express采用了目前業(yè)內流行的點對點串行連接,比起PCI以及更早期的計算機總線的共享并行架構,每個設備都有自己的專用連接,不需要向整個總線請求帶寬,而且可以把數(shù)據(jù)傳輸率提高到一個很高的頻率,達到PCI所不能提供的高帶寬。相對于傳統(tǒng)PCI總線在單一時間周期內只能實現(xiàn)單向傳輸,PCI Express的雙單工連接能提供更高的傳輸速率和質量。PCI-E插槽是可以向下兼容的,比如PCI-E 16X插槽可以插8X、4X、1X的卡。現(xiàn)在的服務器一般都會提供多個8X、4X的接口,已取代以前的PCI-X接口。
PCI是總線結構,而PCIe是點對點結構。一個典型的PCIe系統(tǒng)框圖如下:
一個典型的結構是一個root port和一個endpoint直接組成一個點對點連接對,而Switch可以同時連接幾個endpoint。一個root port和一個endpoint對就需要一個單獨的PCI bus。而PCI是在同一個總線上的設備共享同一個bus number。過去主板上的PCI插槽都公用一個PCI bus,而現(xiàn)在的PCIe插槽卻連在芯片組不同的root port上。
4.1 下圖從上到下依次是PCIEX16,X1,X4
4.2 PCI-E各版本的傳輸速度
4.3 PCI-E不同傳輸通道數(shù)設備的金手指數(shù)和長度
4.4 三種接口的傳輸速度比較
二、pci設備基礎知識
Linux PCI設備驅動實際包括Linux PCI設備驅動和設備本身驅動兩部分。PCI(Periheral Component Interconnect)有三種地址空間:PCI I/O空間、PCI內存地址空間和PCI配置空間。其中,PCI I/O空間和PCI內存地址空間由設備驅動程序使用,而PCI配置空間由Linux PCI初始化代碼使用,用于配置PCI設備,比如中斷號以及I/O或內存基地址。
2.1 內核中的pci活動
Linux內核主要就做了對PCI設備的枚舉和配置;在Linux內核初始化時完成的。
對于PCI總線,有一個叫做PCI橋的設備用來將父總線與子總線連接。作為一種特殊的PCI設備,PCI橋主要包括以下三種:
- HOST/PCI橋: 用于連接 CPU 與 PCI 根總線,第 1 個根總線的編號為 0。在 PC 中,內存控制器也通常被集成到 Host/PCI 橋設備芯片中,因此,Host/PCI 橋通常也被稱為“北橋芯片組(North Bridge Chipset)”。
- PCI/ISA橋:用于連接舊的 ISA 總線。通常,PCI 中的類似 i8359A 中斷控制器這樣的設備也會被集成到 PCI/ISA 橋設備中,因此,PCI/ISA 橋通常也被稱為“南橋芯片組(SouthBridge Chipset)”。
- PCI-to-PCI橋: 用于連接 PCI 主總線(primary bus)與次總線(secondary bus)。PCI 橋所處的 PCI 總線稱為“主總線”(即次總線的父總線),橋設備所連接的 PCI 總線稱為“次總線”(即主總線的子總線)。
2.1.1 枚舉
從Host/PCI橋開始進行探測和掃描,逐個“枚舉”連接在第一條PCI總線上的所有設備并記錄在案。如果其中的某個設備是PCI-PCI橋,則又進一步再探測和掃描連在這個橋上的次級PCI總線。就這樣遞歸下去,直到窮盡系統(tǒng)中的所有PCI設備。其結果,是在內存中建立起一棵代表著這些PCI總線和設備的PCI樹。
每個PCI設備(包括PCI橋設備)都由一個pci_dev結構體來表示,而每條PCI總線則由pci_bus結構來表示。
2.1.2 配置
PCI設備中一般都帶有一些RAM和ROM 空間,通常的控制/狀態(tài)寄存器和數(shù)據(jù)寄存器也往往以RAM區(qū)間的形式出現(xiàn),而這些區(qū)間的地址在設備內部一般都是從0開始編址的,那么當總線上掛接了多個設備時,對這些空間的訪問就會產生沖突。所以,這些地址都要先映射到系統(tǒng)總線上,再進一步映射到內核的虛擬地址空間。
配置就是通過對PCI配置空間的寄存器進行操作從而完成地址的映射。
2.1.3 pci初始化流程
pci這塊代碼在兩個地方,一個是driver/pci另一個是arch/×××/pci中。
2.1.4 關于入口
pci系統(tǒng)中入口函數(shù)處理subsys_initcall之外,還有arch_initcall,postcore_initcall等等。
pci系統(tǒng)的初始化工作有內核來完成,在drivers/pci/probe.c文件中,調用postcore_initcall(pcibus_class_init);函數(shù),在sys/class/下創(chuàng)建一個pci_bus目錄。
drivers/pci/pci-driver.c文件,postcore_initcall(pci_driver_init); 注冊pci總線,并在/sys/bus/下創(chuàng)建了一個pci目錄
arch/xxx/pci/init.c文件中
arch_initcall(pci_arch_init);體系架構相關,對于64 bit x86來說使用CONFIG_PCI_DIRECT的方式進行訪問PCI配置空間。在內核編譯時候可以指定。
drivers/pci/slot.c文件中,subsys_initcall(pci_slot_init); 創(chuàng)建/sys/bus/slots文件。
三、PCI總線與配置空間
3.1 PCIE所有數(shù)據(jù)結構
1)struct pci_host_bridge 主橋數(shù)據(jù)結構,用來描述連接CPU和PCIE設備的主橋,該結構有Root bus0成員,它也是一個設備,需要注冊。
2)struct pci_dev該結構體用來描述PCI設備,包括EP和pci to pci 橋等設備.
Bus:用來關聯(lián)該設備在哪條bus下,
device,version: 枚舉出來的設備配置空間的重要東西都會保存該數(shù)據(jù)結構。
3)struct pci_bus 該結構體用來描述PCI的總線。
struct list_head devices: 設備鏈表用于關聯(lián)該bus下的所有設備。
children: PCI橋可以使當前總線得到擴展,當前總線上有幾個PCI橋,那么當前總線就會擁有幾個子總線,子總線會連接到父總線的children鏈表中。
ops: 當前總線訪問總線上設備配置空間的 read、write 方法。
4)struct pci_slot 用來描述bus下的物理插槽
5)struct pci_bus_type 這個是pci的總線模型,和之前的pci_bus是兩碼事, pci_driver和pci_dev就是通過該總線關聯(lián)起來.
match: 通過pci_dev 對應的字段 vendor 、subvendor 、device 、subdevice 來匹 配對應的pci_driver
所以大致的流程是內核啟動之后,通過PCI_BUS之間的關系枚舉出來所有設備,并為每一個設備創(chuàng)建一個PCI_DEV的數(shù)據(jù)結構,將配置空間的信息填入PCI_DEV之后,注冊到總線PCI_BUS_TYPE. 然后我們編寫的pci_driver中,填寫了此驅動適配的設備號版本號等,在一個pci_device_id的數(shù)據(jù)結構中,同樣也注冊到pci_bus_type的總線中,如果信息一致則執(zhí)行驅動probe函數(shù)。
3.2 PCI 總線描述:pci_bus
在 Linux 系統(tǒng)中,PCI 總線用 pci_bus 來描述,這個結構體記錄了本 PCI 總線的信息以及本PCI 總線的父總線、子總線、橋設備信息等。
./include/linux/pci.h
假定一個如圖 所示的 PCI 總線系統(tǒng),根總線 0 上有一個 PCI 橋,它引出子總線 Bus 1,Bus 1 上又有一個 PCI 橋引出 Bus 2。
在上圖中,Bus 0 總線的 pci_bus 結構體中的 number、primary、secondary 都應該為 0,因為它是通過 Host/PCI 橋引出的根總線;Bus 1 總線的 pci_bus 結構體中的 number 和 secondary 都為 1,但是它的 primary 應該為 0;Bus 2 總線的 pci_bus 結構體中的 number 和 secondary 都應該為 2,而其 primary 則應該等于 1。這 3 條總線的 subordinate 值都應該等于 2。
系統(tǒng)中當前存在的所有根總線都通過其 pci_bus 結構體中的 node 成員鏈接成一條全局的根總線鏈表,其表頭由 list 類型的全局變量 pci_root_buses 來描述。而根總線下面的所有下級總線則都通過其 pci_bus 結構體中的 node 成員鏈接到其父總線的 children 鏈表中。這樣,通過這兩種 PCI總線鏈表,Linux 內核就將所有的 pci_bus 結構體以一種倒置樹的方式組織起來。假定對于如圖 所示的多根 PCI 總線體系結構:
它所對應的總線鏈表結構將如圖所示。
3.3 pci設備描述符:pci_dev
Linux 系統(tǒng)中,所有種類的 PCI 設備都可以用 pci_dev 結構體來描述,由于一個 PCI 接口卡上可能包含多個功能模塊,每個功能被當作一個獨立的邏輯設備,因此,每一個 PCI 功能,即PCI 邏輯設備都惟一地對應一個 pci_dev 設備描述符:
struct pci_dev { /* 總線設備鏈表元素bus_list:每一個pci_dev結構除了鏈接到全局設備鏈表中外,還會通過這個成員連接到 其所屬PCI總線的設備鏈表中。每一條PCI總線都維護一條它自己的設備鏈表視圖,以便描述所有連接在該 PCI總線上的設備,其表頭由PCI總線的pci_bus結構中的 devices成員所描述t*/ struct list_head bus_list; /* 總線指針bus:指向這個PCI設備所在的PCI總線的pci_bus結構。因此,對于橋設備而言,bus指針將指向 橋設備的主總線(primary bus),也即指向橋設備所在的PCI總線*/ struct pci_bus *bus; /* 這個 PCI 設備所在的 PCI 總線的 pci_bus 結構 */ /* 指針subordinate:指向這個PCI設備所橋接的下級總線。這個指針成員僅對橋設備才有意義,而對于一般 的非橋PCI設備而言,該指針成員總是為NULL*/ struct pci_bus *subordinate; /* 指向這個 PCI 設備所橋接的下級總線 */ /* 無類型指針sysdata:指向一片特定于系統(tǒng)的擴展數(shù)據(jù)*/ void *sysdata; /* 指向一片特定于系統(tǒng)的擴展數(shù)據(jù) */ /* 指針procent:指向該PCI設備在/proc文件系統(tǒng)中對應的目錄項*/ struct proc_dir_entry *procent; /* 該 PCI 設備在/proc/bus/pci 中對應的目錄項 */ struct pci_slot *slot; /* 設備位于的物理插槽 */ /* devfn:這個PCI設備的設備功能號,也成為PCI邏輯設備號(0-255)。其中bit[7:3]是物理設備號(取值 范圍0-31),bit[2:0]是功能號(取值范圍0-7)。 */ unsigned int devfn; /* 這個 PCI 設備的設備功能號 */ /* vendor:這是一個16無符號整數(shù),表示PCI設備的廠商ID*/ unsigned short vendor; /*device:這是一個16無符號整數(shù),表示PCI設備的設備ID */ unsigned short device; /* subsystem_vendor:這是一個16無符號整數(shù),表示PCI設備的子系統(tǒng)廠商ID*/ unsigned short subsystem_vendor; /* subsystem_device:這是一個16無符號整數(shù),表示PCI設備的子系統(tǒng)設備ID。*/ unsigned short subsystem_device; /* class:32位的無符號整數(shù),表示該PCI設備的類別,其中,bit[7:0]為編程接口,bit[15:8]為子類 別代碼,bit [23:16]為基類別代碼,bit[31:24]無意義。顯然,class成員的低3字節(jié)剛好對應與PCI配 置空間中的類代碼*/ unsigned int class; /* hdr_type:8位符號整數(shù),表示PCI配置空間頭部的類型。其中,bit[7]=1表示這是一個多功能設備, bit[7]=0表示這是一個單功能設備。Bit[6:0]則表示PCI配置空間頭部的布局類型,值00h表示這是一 個一般PCI設備的配置空間頭部,值01h表示這是一個PCI-to-PCI橋的配置空間頭部,值02h表示CardBus橋 的配置空間頭部*/ u8 hdr_type; /* rom_base_reg:8位無符號整數(shù),表示PCI配置空間中的ROM基地址寄存器在PCI配置空間中的位置。 ROM基地址寄存器在不同類型的PCI配置空間頭部的位置是不一樣的,對于type 0的配置空間布局,ROM基 地址寄存器的起始位置是30h,而對于PCI-to-PCI橋所用的type 1配置空間布局,ROM基地址寄存器的起始 位置是38h*/ u8 rom_base_reg; /* 指針driver:指向這個PCI設備所對應的驅動程序定義的pci_driver結構。每一個pci設備驅動程序都必須定 義它自己的pci_driver結構來描述它自己。*/ struct pci_driver *driver; /*dma_mask:用于DMA的總線地址掩碼,一般來說,這個成員的值是0xffffffff。數(shù)據(jù)類型dma_addr_t定義在 include/asm/types.h中,在x86平臺上,dma_addr_t類型就是u32類型*/ u64 dma_mask; /* 當前操作狀態(tài) */ pci_power_t current_state; /* 通用的設備接口*/struct device dev; /* 無符號的整數(shù)irq:表示這個PCI設備通過哪根IRQ輸入線產生中斷,一般為0-15之間的某個值 */ unsigned int irq; /*表示該設備可能用到的資源,包括:I/O斷口區(qū)域、設備內存地址區(qū)域以及擴展ROM地址區(qū)域。*/ struct resource resource[DEVICE_COUNT_RESOURCE]; /* 配置空間的大小 */ int cfg_size; /* 透明 PCI 橋 */ unsigned int transparent:1; /* 多功能設備*/ unsigned int multifunction:1; /* 設備是主設備*/ unsigned int is_busmaster:1; /* 設備不使用msi*/ unsigned int no_msi:1; /* 配置空間訪問形式用塊的形式 */ unsigned int block_ucfg_access:1; /* 在掛起時保存配置空間*/ u32 saved_config_space[16]; /* sysfs ROM入口的屬性描述*/ struct bin_attribute *rom_attr; /* 能顯示rom 屬性*/ int rom_attr_enabled; /* 資源的sysfs文件*/ struct bin_attribute *res_attr[DEVICE_COUNT_RESOURCE];};PS:
同一條總線上的設備通過struct list_head bus_list組成這條總線的設備鏈表;
表頭則是pci_bus結構體中的struct list_head devices成員。
3.4 PCI配置空間
對于PCI配置空間的講解專門放到單獨一篇文章中進行說明。
- PCI 有 3 種地址空間:PCI I/O 空間、PCI 內存地址空間和 PCI 配置空間。
- CPU 可以訪問所有的地址空間,其中 PCI I/O 空間和 PCI 內存地址空間由設備驅動程序使用,PCI 配置空間由內核中PCI初始化時使用。
- PCI 支持自動配置設備,與舊的 ISA 驅動程序不一樣,PCI 驅動程序不需要實現(xiàn)復雜的檢測邏輯。
- 啟動時,BIOS 或內核自身會遍歷 PCI 總線并分配資源,如中斷優(yōu)先級和 I/O 基址。設備驅動程序通過 PCI 配置空間來找到資源分配情況。
- PCI 規(guī)范定義了 3 種類型的 PCI 配置空間頭部,其中 type 0 用于標準的 PCI 設備,type 1 用
于 PCI 橋,type 2 用于 PCI CardBus 橋。
不管是哪一種類型的配置空間頭部,其前 16 個字節(jié)的格式都是相同的,./include/uapi/linux/pci_regs.h文件中定義了 PCI 配置空間頭部。
/** Under PCI, each device has 256 bytes of configuration address space,* of which the first 64 bytes are standardized as follows:*/ #define PCI_STD_HEADER_SIZEOF 64 #define PCI_VENDOR_ID 0x00 /* 16 bits *//* 16 位廠商 ID */ #define PCI_DEVICE_ID 0x02 /* 16 bits *//* 16 位設備 ID *//* PCI 命令寄存器 */ #define PCI_COMMAND 0x04 /* 16 bits */ #define PCI_COMMAND_IO 0x1 /* Enable response in I/O space *//* 使能設備響應對 I/O 空間的訪問 */ #define PCI_COMMAND_MEMORY 0x2 /* Enable response in Memory space *//* 使能設備響應對存儲空間的訪問 */ #define PCI_COMMAND_MASTER 0x4 /* Enable bus mastering *//* 使能總線主模式 */ #define PCI_COMMAND_SPECIAL 0x8 /* Enable response to special cycles *//* 使能設備響應特殊周期 */ #define PCI_COMMAND_INVALIDATE 0x10 /* Use memory write and invalidate */ /*使用 PCI 內存寫無效事務 */ #define PCI_COMMAND_VGA_PALETTE 0x20 /* Enable palette snooping *//* 使能 VGA 調色板偵測 */ #define PCI_COMMAND_PARITY 0x40 /* Enable parity checking *//* 使能奇偶校驗 */ #define PCI_COMMAND_WAIT 0x80 /* Enable address/data stepping *//* 使能地址/數(shù)據(jù)步進 */ #define PCI_COMMAND_SERR 0x100 /* Enable SERR *//* 使能 SERR */ #define PCI_COMMAND_FAST_BACK 0x200 /* Enable back-to-back writes *//* 使能背靠背寫 */ #define PCI_COMMAND_INTX_DISABLE 0x400 /* INTx Emulation Disable */ /* 禁止中斷競爭*//* PCI 狀態(tài)寄存器 */ #define PCI_STATUS 0x06 /* 16 bits */ #define PCI_STATUS_INTERRUPT 0x08 /* Interrupt status */ #define PCI_STATUS_CAP_LIST 0x10 /* Support Capability List *//* 支持的能力列表 */ #define PCI_STATUS_66MHZ 0x20 /* Support 66 MHz PCI 2.1 bus *//* 支持 PCI 2.1 66MHz */ #define PCI_STATUS_UDF 0x40 /* Support User Definable Features [obsolete] *//* 支持用戶定義的特征 */ #define PCI_STATUS_FAST_BACK 0x80 /* Accept fast-back to back *//* 快速背靠背操作 */ #define PCI_STATUS_PARITY 0x100 /* Detected parity error *//* 偵測到奇偶校驗錯 */ #define PCI_STATUS_DEVSEL_MASK 0x600 /* DEVSEL timing *//* DEVSEL 定時 */ #define PCI_STATUS_DEVSEL_FAST 0x000 #define PCI_STATUS_DEVSEL_MEDIUM 0x200 #define PCI_STATUS_DEVSEL_SLOW 0x400 #define PCI_STATUS_SIG_TARGET_ABORT 0x800 /* Set on target abort */ /* 目標設備異常 */ #define PCI_STATUS_REC_TARGET_ABORT 0x1000 /* Master ack of " */ /* 主設備確認 */ #define PCI_STATUS_REC_MASTER_ABORT 0x2000 /* Set on master abort *//* 主設備異常 */ #define PCI_STATUS_SIG_SYSTEM_ERROR 0x4000 /* Set when we drive SERR */ /* 驅動了 SERR */ #define PCI_STATUS_DETECTED_PARITY 0x8000 /* Set on parity error */ /* 奇偶校驗錯 *//* 類代碼寄存器和修訂版本寄存器 */ #define PCI_CLASS_REVISION 0x08 /* High 24 bits are class, low 8 revision *//* 高 24 位為類碼,低 8 位為修訂版本 */ #define PCI_REVISION_ID 0x08 /* Revision ID *//* 修訂號 */ #define PCI_CLASS_PROG 0x09 /* Reg. Level Programming Interface *//* 編程接口 */ #define PCI_CLASS_DEVICE 0x0a /* Device class *//* 設備類 */#define PCI_CACHE_LINE_SIZE 0x0c /* 8 bits */ #define PCI_LATENCY_TIMER 0x0d /* 8 bits *//* PCI 頭類型 */ #define PCI_HEADER_TYPE 0x0e /* 8 bits *//* 8 位頭類型 */ #define PCI_HEADER_TYPE_NORMAL 0 #define PCI_HEADER_TYPE_BRIDGE 1 #define PCI_HEADER_TYPE_CARDBUS 2/* 表示配置空間頭部中的 Built-In Self-Test 寄存器在配置空間中的字節(jié)地址索引 */ #define PCI_BIST 0x0f /* 8 bits */ #define PCI_BIST_CODE_MASK 0x0f /* Return result *//* 完成代碼 */ #define PCI_BIST_START 0x40 /* 1 to start BIST, 2 secs or less *//* 用于啟動 BIST*/ #define PCI_BIST_CAPABLE 0x80 /* 1 if BIST capable *//* 設備是否支持 BIST? */
緊接著前 16 個字節(jié)的寄存器為基地址寄存器 0~基地址寄存器 5,其中,PCI_BASE_ADDRESS_2~5 僅對標準 PCI 設備的 0 類型配置空間頭部有意義,而 PCI_BASE_ADDRESS_0~1 則適用于0 類型和 1 類型配置空間頭部。
基地址寄存器中的 bit[0]的值決定了這個基地址寄存器所指定的地址范圍是在 I/O 空間還是在內存映射空間內進行譯碼。當基地址寄存器所指定的地址范圍位于內存映射空間中時,其 bit[2∶1]表示內存地址的類型,bit[3]表示內存范圍是否為可預取(Prefetchable)的內存。
1 類型配置空間頭部適用于 PCI-PCI 橋設備,其基地址寄存器 0 與基地址寄存器 1 可以用來指定橋設備本身可能要用到的地址范圍,而后 40 個字節(jié)(0x18~0x39)則被用來配置橋設備的主、次編號以及地址過濾窗口等信息。
pci_bus 結構體中的 pci_ops 類型成員指針 ops 指向該 PCI 總線所使用的配置空間訪問操作的具體實現(xiàn)。
struct pci_ops {int (*add_bus)(struct pci_bus *bus);void (*remove_bus)(struct pci_bus *bus);void __iomem *(*map_bus)(struct pci_bus *bus, unsigned int devfn, int where);int (*read)(struct pci_bus *bus, unsigned int devfn, int where, int size, u32 *val);/* 讀配置空間 */int (*write)(struct pci_bus *bus, unsigned int devfn, int where, int size, u32 val); /* 寫配置空間 */ };read()和 write()成員函數(shù)中的 size 表示訪問的是字節(jié)、2 字節(jié)還是 4 字節(jié),對于 write()而言,val 是要寫入的值;對于 read()而言,val 是要返回的讀取到的值的指針。通過 bus 參數(shù)的成員以及devfn 可以定位相應 PCI 總線上相應 PCI 邏輯設備的配置空間。在 Linux 設備驅動中,可用如下一組函數(shù)來訪問配置空間:
int pci_bus_read_config_byte(struct pci_bus *bus, unsigned int devfn, int where, u8 *val); int pci_bus_read_config_word(struct pci_bus *bus, unsigned int devfn, int where, u16 *val); int pci_bus_read_config_dword(struct pci_bus *bus, unsigned int devfn, int where, u32 *val); int pci_bus_write_config_byte(struct pci_bus *bus, unsigned int devfn, int where, u8 val); int pci_bus_write_config_word(struct pci_bus *bus, unsigned int devf, int where, u16 val); int pci_bus_write_config_dword(struct pci_bus *bus, unsigned int devfn, int where, u32 val); ———————————————— 版權聲明:本文為CSDN博主「xdtp」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權協(xié)議,轉載請附上原文出處鏈接及本聲明。 原文鏈接:https://blog.csdn.net/tpmamba/article/details/111389986上述函數(shù)只是對如下函數(shù)進行調用:
讀字節(jié) */ int pci_bus_read_config_word (struct pci_bus *bus, unsigned int devfn, int where, u16 *val); /* 讀字 */ int pci_bus_read_config_dword (struct pci_bus *bus, unsigned int devfn, int where, u32 *val); /* 讀雙字 */ int pci_bus_write_config_byte (struct pci_bus *bus, unsigned int devfn, int where, u8 val); /* 寫字節(jié) */ int pci_bus_write_config_word (struct pci_bus *bus, unsigned int devfn, int where, u16 val); /* 寫字 */ int pci_bus_write_config_dword (struct pci_bus *bus, unsigned int devfn, int where, u32 val); /* 寫雙字 */查看/proc和/sysfs文件系統(tǒng)下的PCI總線、設備和驅動
tree /proc/bus/pci tree /sys/bus/pci uos@uos-PC:~$ tree /proc/bus/pci /proc/bus/pci ├── 0000:00 │ ├── 00.0 │ ├── 04.0 │ ├── 04.1 │ ├── 05.0 │ ├── 05.1 │ ├── 07.0 │ ├── 08.0 │ ├── 08.1 │ ├── 08.2 │ ├── 0a.0 │ ├── 0b.0 │ ├── 0d.0 │ ├── 0f.0 │ ├── 13.0 │ ├── 16.0 │ └── 17.0 ├── 0000:01 │ └── 00.0 ├── 0000:02 │ └── 00.0 ├── 0000:03 │ └── 00.0 ├── 0000:04 │ ├── 00.0 │ └── 00.1 ├── 0000:05 │ └── 00.0 └── devices6 directories, 23 files uos@uos-PC:~$ tree /sys/bus/pci /sys/bus/pci ├── devices │ ├── 0000:00:00.0 -> ../../../devices/pci0000:00/0000:00:00.0 │ ├── 0000:00:04.0 -> ../../../devices/pci0000:00/0000:00:04.0 │ ├── 0000:00:04.1 -> ../../../devices/pci0000:00/0000:00:04.1 │ ├── 0000:00:05.0 -> ../../../devices/pci0000:00/0000:00:05.0 │ ├── 0000:00:05.1 -> ../../../devices/pci0000:00/0000:00:05.1 │ ├── 0000:00:07.0 -> ../../../devices/pci0000:00/0000:00:07.0 │ ├── 0000:00:08.0 -> ../../../devices/pci0000:00/0000:00:08.0 │ ├── 0000:00:08.1 -> ../../../devices/pci0000:00/0000:00:08.1 │ ├── 0000:00:08.2 -> ../../../devices/pci0000:00/0000:00:08.2 │ ├── 0000:00:0a.0 -> ../../../devices/pci0000:00/0000:00:0a.0 │ ├── 0000:00:0b.0 -> ../../../devices/pci0000:00/0000:00:0b.0 │ ├── 0000:00:0d.0 -> ../../../devices/pci0000:00/0000:00:0d.0 │ ├── 0000:00:0f.0 -> ../../../devices/pci0000:00/0000:00:0f.0 │ ├── 0000:00:13.0 -> ../../../devices/pci0000:00/0000:00:13.0 │ ├── 0000:00:16.0 -> ../../../devices/pci0000:00/0000:00:16.0 │ ├── 0000:00:17.0 -> ../../../devices/pci0000:00/0000:00:17.0 │ ├── 0000:01:00.0 -> ../../../devices/pci0000:00/0000:00:0a.0/0000:01:00.0 │ ├── 0000:02:00.0 -> ../../../devices/pci0000:00/0000:00:0b.0/0000:02:00.0 │ ├── 0000:03:00.0 -> ../../../devices/pci0000:00/0000:00:0d.0/0000:03:00.0 │ ├── 0000:04:00.0 -> ../../../devices/pci0000:00/0000:00:0f.0/0000:04:00.0 │ ├── 0000:04:00.1 -> ../../../devices/pci0000:00/0000:00:0f.0/0000:04:00.1 │ └── 0000:05:00.0 -> ../../../devices/pci0000:00/0000:00:13.0/0000:05:00.0 ├── drivers │ ├── ahci │ │ ├── 0000:00:08.0 -> ../../../../devices/pci0000:00/0000:00:08.0 │ │ ├── 0000:00:08.1 -> ../../../../devices/pci0000:00/0000:00:08.1 │ │ ├── 0000:00:08.2 -> ../../../../devices/pci0000:00/0000:00:08.2 │ │ ├── 0000:03:00.0 -> ../../../../devices/pci0000:00/0000:00:0d.0/0000:03:00.0 │ │ ├── bind │ │ ├── module -> ../../../../module/ahci │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── amdgpu │ │ ├── 0000:04:00.0 -> ../../../../devices/pci0000:00/0000:00:0f.0/0000:04:00.0 │ │ ├── bind │ │ ├── module -> ../../../../module/amdgpu │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── ast │ │ ├── bind │ │ ├── module -> ../../../../module/ast │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── cavium_ptp │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── ehci-pci │ │ ├── 0000:00:04.1 -> ../../../../devices/pci0000:00/0000:00:04.1 │ │ ├── 0000:00:05.1 -> ../../../../devices/pci0000:00/0000:00:05.1 │ │ ├── bind │ │ ├── module -> ../../../../module/ehci_pci │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── loongson-audio │ │ ├── 0000:00:07.0 -> ../../../../devices/pci0000:00/0000:00:07.0 │ │ ├── bind │ │ ├── module -> ../../../../module/snd_hda_loongson │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── ls-spi-pci │ │ ├── 0000:00:16.0 -> ../../../../devices/pci0000:00/0000:00:16.0 │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── megaraid_legacy │ │ ├── bind │ │ ├── module -> ../../../../module/megaraid │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── megaraid_sas │ │ ├── bind │ │ ├── dbg_lvl │ │ ├── module -> ../../../../module/megaraid_sas │ │ ├── new_id │ │ ├── release_date │ │ ├── remove_id │ │ ├── support_device_change │ │ ├── support_nvme_encapsulation │ │ ├── support_poll_for_event │ │ ├── uevent │ │ ├── unbind │ │ └── version │ ├── mpt3sas │ │ ├── bind │ │ ├── module -> ../../../../module/mpt3sas │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── mvumi │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── nvme │ │ ├── 0000:05:00.0 -> ../../../../devices/pci0000:00/0000:00:13.0/0000:05:00.0 │ │ ├── bind │ │ ├── module -> ../../../../module/nvme │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── ohci-pci │ │ ├── 0000:00:04.0 -> ../../../../devices/pci0000:00/0000:00:04.0 │ │ ├── 0000:00:05.0 -> ../../../../devices/pci0000:00/0000:00:05.0 │ │ ├── bind │ │ ├── module -> ../../../../module/ohci_pci │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── pcieport │ │ ├── 0000:00:0a.0 -> ../../../../devices/pci0000:00/0000:00:0a.0 │ │ ├── 0000:00:0b.0 -> ../../../../devices/pci0000:00/0000:00:0b.0 │ │ ├── 0000:00:0d.0 -> ../../../../devices/pci0000:00/0000:00:0d.0 │ │ ├── 0000:00:0f.0 -> ../../../../devices/pci0000:00/0000:00:0f.0 │ │ ├── 0000:00:13.0 -> ../../../../devices/pci0000:00/0000:00:13.0 │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── r8168 │ │ ├── 0000:02:00.0 -> ../../../../devices/pci0000:00/0000:00:0b.0/0000:02:00.0 │ │ ├── bind │ │ ├── module -> ../../../../module/r8168 │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── radeon │ │ ├── bind │ │ ├── module -> ../../../../module/radeon │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── radeonfb │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── serial │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── shpchp │ │ ├── bind │ │ ├── module -> ../../../../module/shpchp │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── smifb │ │ ├── bind │ │ ├── module -> ../../../../module/smifb │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── snd_hda_intel │ │ ├── 0000:04:00.1 -> ../../../../devices/pci0000:00/0000:00:0f.0/0000:04:00.1 │ │ ├── bind │ │ ├── module -> ../../../../module/snd_hda_intel │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── stmmaceth │ │ ├── bind │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ ├── tsi721 │ │ ├── bind │ │ ├── module -> ../../../../module/tsi721_mport │ │ ├── new_id │ │ ├── remove_id │ │ ├── uevent │ │ └── unbind │ └── xhci_hcd │ ├── 0000:01:00.0 -> ../../../../devices/pci0000:00/0000:00:0a.0/0000:01:00.0 │ ├── bind │ ├── module -> ../../../../module/xhci_pci │ ├── new_id │ ├── remove_id │ ├── uevent │ └── unbind ├── drivers_autoprobe ├── drivers_probe ├── rescan ├── resource_alignment ├── slots └── uevent86 directories, 131 files3.5 PCI DMA 相關API
內核中定義了一組專門針對 PCI 設備的 DMA 操作接口,這些 API 的原型和作用與通用 DMA API 非常相似,主要包括如下。
- 設置 DMA 緩沖區(qū)掩碼。int pci_set_dma_mask(struct pci_dev *dev, u64 mask);
- 一致性 DMA 緩沖區(qū)分配/釋放。void *pci_alloc_consistent(struct pci_dev *pdev, size_t size, dma_addr_t *dma_handle); void pci_free_consistent(struct pci_dev *hwdev, size_t size, void *vaddr, dma_addr_t dma_handle);
- 流式 DMA 緩沖區(qū)映射/去映射。
這些 API 的用法與dma_alloc_consistent()、dma_map_single()、dma_map_sg()相似,只是以 pci_開頭的 API 用于 PCI 設備驅動。
3.6 PCI 設備驅動其他常用 API
除了 DMA API 外,在 PCI 設備驅動中其他常用的函數(shù)(或宏)如下所示。
-
獲取 I/O 或內存資源。
#define pci_resource_start(dev,bar) ((dev)!resource[(bar)].start) #define pci_resource_end(dev,bar) ((dev)!resource[(bar)].end) #define pci_resource_flags(dev,bar) ((dev)!resource[(bar)].flags) #define pci_resource_len(dev,bar) \((pci_resource_start((dev),(bar)) == 0 && \pci_resource_end((dev),(bar)) == \pci_resource_start((dev),(bar))) ? 0 : \\(pci_resource_end((dev),(bar)) - \pci_resource_start((dev),(bar)) + 1)) -
申請/釋放 I/O 或內存資源。
int pci_request_regions(struct pci_dev *pdev, const char *res_name); void pci_release_regions(struct pci_dev *pdev); -
獲取/設置驅動私有數(shù)據(jù)。
void *pci_get_drvdata (struct pci_dev *pdev); void pci_set_drvdata (struct pci_dev *pdev, void *data); -
使能/禁止 PCI 設備。
int pci_enable_device(struct pci_dev *dev); void pci_disable_device(struct pci_dev *dev); -
設置為總線主 DMA。
void pci_set_master(struct pci_dev *dev); -
尋找指定總線指定槽位的 PCI 設備。
struct pci_dev *pci_find_slot (unsigned int bus, unsigned int devfn); -
設置 PCI 能量管理狀態(tài)(0=D0 … 3=D3)。
int pci_set_power_state(struct pci_dev *dev, pci_power_t state); -
在設備的能力表中找出指定的能力。
int pci_find_capability (struct pci_dev *dev, int cap); -
啟用設備內存寫無效事務。
int pci_set_mwi(struct pci_dev *dev); -
禁用設備內存寫無效事務。
void pci_clear_mwi(struct pci_dev *dev);
四、PCI設備驅動結構
4.1 pci_driver結構體
從本質上講 PCI 只是一種總線,具體的 PCI 設備可以是字符設備、網(wǎng)絡設備、USB 主機控制器等,因此,一個通過 PCI 總線與系統(tǒng)連接的設備的驅動至少包含以下兩部分內容。
- PCI 驅動。
- 設備本身的驅動。
PCI 驅動只是為了輔助設備本身的驅動,它不是目的,而是手段。例如,對于通過 PCI 總線與系統(tǒng)連接的字符設備,則驅動中除了要實現(xiàn) PCI 驅動部分外,其主體仍然是設備作為字符設備本身的驅動,即實現(xiàn) file_operations 成員函數(shù)并注冊 cdev。分析 Linux 內核可知,在/drivers/block/、/drivers/atm/ 、 /drivers/char/ 、 /drivers/i2c/ 、 /drivers/ieee1394/ 、 /drivers/media/ 、 /drivers/mtd/、/drivers/net/、/drivers/serial/、/drivers/video/、/sound/等目錄中均廣泛分布著 PCI 設備驅動。
在 Linux 內核中,用 pci_driver 結構體來定義 PCI 驅動,該結構體中包含了 PCI 設備的探測/移除、掛起/恢復等函數(shù)。pci_driver 和 platform_driver、i2c_driver、usb_driver 的地位非常相似,都是起到掛接總線的作用。
struct pci_driver {struct list_head node;const char *name;const struct pci_device_id *id_table; /* Must be non-NULL for probe to be called */ /*不能為 NULL,以便 probe 函數(shù)調用*//* 新設備添加 */int (*probe)(struct pci_dev *dev, const struct pci_device_id *id); /* New device inserted */void (*remove)(struct pci_dev *dev); /* Device removed (NULL if not a hot-plug capable driver) */ /* 設備移出 */int (*suspend)(struct pci_dev *dev, pm_message_t state); /* Device suspended *//* 設備掛起 */int (*suspend_late)(struct pci_dev *dev, pm_message_t state);int (*resume_early)(struct pci_dev *dev);int (*resume) (struct pci_dev *dev); /* Device woken up */ /* 設備喚醒 */void (*shutdown) (struct pci_dev *dev);int (*sriov_configure) (struct pci_dev *dev, int num_vfs); /* On PF */const struct pci_error_handlers *err_handler;const struct attribute_group **groups;struct device_driver driver;struct pci_dynids dynids; };#define to_pci_driver(drv) container_of(drv, struct pci_driver, driver) 注冊/注銷PCI驅動 int pci_register_driver(struct pci_driver *drv); void pci_unregister_driver(struct pci_driver *drv);使能/禁止PCI設備 int pci_enable_device(struct pci_dev *dev); void pci_disable_device(struct pci_dev *dev);申請/釋放I/O或內存資源 int pci_request_regions(struct pci_dev *dev, const char *res_name); void pci_release_regions(struct pci_dev *dev);獲取I/O或內存資源 #define pci_resource_start(dev, bar) ((dev)->resource[(bar)].start) #define pci_resource_end(dev, bar) ((dev)->resource[(bar)].end) #define pci_resource_flags(dev, bar) ((dev)->resource[(bar)].flags) #define pci_resource_len(dev,bar) \((pci_resource_start((dev), (bar)) == 0 && \pci_resource_end((dev), (bar)) == \pci_resource_start((dev), (bar))) ? 0 : \\(pci_resource_end((dev), (bar)) - \pci_resource_start((dev), (bar)) + 1))設置/獲取驅動私有數(shù)據(jù) void pci_set_drvdata(struct pci_dev *pdev, void *data); void *pci_get_drvdata(struct pci_dev *pdev);設置/清除為總線主DMA void pci_set_master(struct pci_dev *dev); void pci_clear_master(struct pci_dev *dev);在設備的能力表中找出指定的capability int pci_find_capability(struct pci_dev *dev, int cap);設置/清除內存寫無效事務 int pci_set_mwi(struct pci_dev *dev); void pci_clear_mwi(struct pci_dev *dev);pci_driver的probe函數(shù)func: 完成PCI設備的初始化及設備本身(字符、tty、網(wǎng)絡等)的驅動的注冊。 pci_device_id結構體struct pci_device_id {__u32 vendor, device; /* Vendor and device ID or PCI_ANY_ID*/__u32 subvendor, subdevice; /* Subsystem ID's or PCI_ANY_ID */__u32 class, class_mask; /* (class,subclass,prog-if) triplet */kernel_ulong_t driver_data; /* Data private to the driver */}; #define PCI_DEVICE(vend,dev) \.vendor = (vend), .device = (dev), \.subvendor = PCI_ANY_ID, .subdevice = PCI_ANY_IDpci_driver 的 probe()函數(shù)要完成 PCI 設備的初始化及其設備本身身份(字符、TTY、網(wǎng)絡等)驅動的注冊。當 Linux 內核啟動并完成對所有 PCI 設備進行掃描、登錄和分配資源等初始化操作的同時,會建立起系統(tǒng)中所有 PCI 設備的拓撲結構,probe()函數(shù)將負責硬件的探測工作并保存配置信息。
4.2 PCI設備驅動的組成
static int xxx_probe(struct pci_dev *pci_dev, const struct pci_device_id *id) {/*pci設備相關結構的初始化*//*初始化設備本身(字符、tty、網(wǎng)絡等)*//*注冊設備本身*/ } static void xxx_remove(struct pci_dev *pci_dev) {/*注銷設備本身*//*PCI設備相關結構的釋放*/ } static struct pci_driver xxx_pci_driver = {.name = DRV_NAME,.id_table = pci_tbl,.probe = xxx_probe,.remove = xxx_remove,...}; xxx_initpci_register_driver(&xxx_pci_driver); xxx_exitpci_unregister_driver(&xxx_pci_driver);pci總線就像工作單位、PCI設備需要向“工作單位”注冊并接收其管理(probe/remove/resume/...);
但PCI設備又本身可能是個保安、工程師、經(jīng)理等,故有其自己的主體工作(字符/tty/網(wǎng)絡等驅動程序)。
4.3 驅動實例
************************************************ NVIDIA nForce媒體訪問控制器的以太網(wǎng)驅動程序 (drivers/net/ethernet/nvidia/forcedeth.c) ************************************************ static const struct net_device_ops nv_netdev_ops = {.ndo_open = nv_open,.ndo_stop = nv_close,.ndo_get_stats64 = nv_get_stats64,.ndo_start_xmit = nv_start_xmit,...... }; static int nv_probe(struct pci_dev *pci_dev, const struct pci_device_id *id) {struct net_device *dev;struct fe_priv *np;unsigned long addr;u8 __iomem *base;...dev = alloc_etherdev(sizeof(struct fe_priv)); /*分配etherdev設備*/...np = netdev_priv(dev);np->dev = dev;np->pci_dev = pci_dev;...SET_NETDEV_DEV(dev, &pci_dev->dev);...err = pci_enable_device(pci_dev); /*使能PCI設備*/ ...pci_set_master(pci_dev); /*設置為總線主DMA*/err = pci_request_regions(pci_dev, DRV_NAME); /*申請PCI I/O和內存資源*/...addr = 0;for (i = 0; i < DEVICE_COUNT_RESOURCE; i++) {if (pci_resource_flags(pci_dev, i) & IORESOURCE_MEM &&pci_resource_len(pci_dev, i) >= np->register_size) {addr = pci_resource_start(pci_dev, i); /*獲取I/O或內存基址*/break;}}......np->base = ioremap(addr, np->register_size); /*ioremap I/O區(qū)域*/......if (!nv_optimized(np))dev->netdev_ops = &nv_netdev_ops; /*指定net_device_ops結構體*/elsedev->netdev_ops = &nv_netdev_ops_optimized;netif_napi_add(dev, &np->napi, nv_napi_poll, RX_WORK_PER_LOOP);dev->ethtool_ops = &ops;dev->watchdog_timeo = NV_WATCHDOG_TIMEO;pci_set_drvdata(pci_dev, dev); /*獲取驅動私有數(shù)據(jù)*/......err = register_netdev(dev); /*注冊網(wǎng)絡設備*/......return 0;... } static void nv_remove(struct pci_dev *pci_dev) {struct net_device *dev = pci_get_drvdata(pci_dev);unregister_netdev(dev); /*注銷網(wǎng)絡設備*/nv_restore_mac_addr(pci_dev);/* restore any phy related changes */nv_restore_phy(dev);nv_mgmt_release_sema(dev);/* free all structures */free_rings(dev);iounmap(get_hwbase(dev));pci_release_regions(pci_dev); /*釋放I/O或內存資源*/ pci_disable_device(pci_dev); /*禁止PCI設備*/free_netdev(dev); /*釋放網(wǎng)絡設備*/ } static const struct pci_device_id pci_tbl[] = {{ /* nForce Ethernet Controller */PCI_DEVICE(0x10DE, 0x01C3), /*宏定義見附錄*/ .driver_data = DEV_NEED_TIMERIRQ|DEV_NEED_LINKTIMER,},{ /* nForce2 Ethernet Controller */PCI_DEVICE(0x10DE, 0x0066),.driver_data = DEV_NEED_TIMERIRQ|DEV_NEED_LINKTIMER,},......{0,}, }; static struct pci_driver forcedeth_pci_driver = {.name = DRV_NAME,.id_table = pci_tbl,.probe = nv_probe,.remove = nv_remove,... }; module_pci_driver(forcedeth_pci_driver); /*該函數(shù)實際已經(jīng)包含了pci_register_driver和pci_register_driver*/ MODULE_DEVICE_TABLE(pci, pci_tbl); /*使用該宏將pci_tbl導出到用戶空間*/參考
總結
以上是生活随笔為你收集整理的Linux PCI总线驱动-1的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: html的长度单位的选择,html中常见
- 下一篇: 分页插件之--kaminari