女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

VFIO將DMA映射暴露給用戶態?

Linux閱碼場 ? 來源:Linuxer ? 作者:Linuxer ? 2020-12-26 09:39 ? 次閱讀

在開始之前我們先要說一個東西就是 DMA,直接讓設備訪問內存,可以不通過 CPU 搬運數據。

48963e3a-4422-11eb-8b86-12bb97331649.jpg

這是一個比較簡單的體系結構圖,設備 和 CPU 通過存儲控制器訪問存儲器。一個簡單的 case 是 CPU 向存儲器寫數據,然后設備從存儲器讀數據。這么快來一切都很正常。但是實際上 CPU 是有一層緩存的,例如下面這樣的。

48b96504-4422-11eb-8b86-12bb97331649.jpg

CPU 想內存寫數據,但是先要清空到不一致的緩存,然后設備再去讀數據,不然設備讀到的數據和 CPU 實際的數據會不一致(因為緩存里的數據可能和存儲器的不一致),而且實際上緩存也不只是一層,所以需要一個中間層來保證 從 CPU 的角度和從設備的角度內存都是一致的,所以就有了下面這個結構。

48db9c32-4422-11eb-8b86-12bb97331649.jpg

CPU 和 設備都會走緩存驗證一遍以后,再落到存儲器上,這樣帶上緩存以后大家的一致性都是一樣的了。所以從設備的角度,設備也擁有了緩存,實際上這個和 IOMMU 關系不是很大,接下來設備其實也可以和 CPU 一樣有一層 MMU,也就是地址到存儲器物理地址的轉換。注意,這里我用了地址,因為對 CPU 來說是虛擬地址,但是對設備來說是一個總線域的地址。這里要明確區分一下,一個是總線地址,是從設備的角度來看的,一個是 CPU 的虛擬地址,這是從 CPU 角度來看的,兩個是不同的東西。將總線域地址轉換成存儲器物理地址的設備就叫 IOMMU。

495b4f04-4422-11eb-8b86-12bb97331649.jpg

如果沒有 IOMMU,DMA 也能照常工作,IOMMU 的主要作用就是保護功能,防止使用 DMA 的設備訪問任意存儲器的物理地址。

IOMMU 在不同架構上名字不太一樣,AMD 叫 AMD-Vi,最開始針對的設備只是顯卡,Intel 叫 VT-d,arm 叫 SMMU,具體對應的手冊也不太一樣,但是主要解決的問題是一致的。在 VTd 中,dmar (DMA remapping) 就是那個 IOMMU 設備,通過中斷的方式實現類似 page fault 一樣的內存分配行為。DMA 傳輸是由 CPU 發起的:CPU 會告訴 DMA 控制器,幫忙將 xxx 地方的數據搬到 xxx 地方。CPU 發完指令之后,就當甩手掌柜了。IOMMU 有點像 MMU 是一個將設備地址翻譯到內存地址的頁表體系,也會有對應的頁表,這個東西在虛擬化中也非常有用,可以將原本有軟件模擬的設備,用直接的硬件替代,而原本的隔離通過 IOMMU 來完成。如下圖所示,原本需要通過軟件模擬的驅動設備可以通過 IOMMU 以安全的方式來直接把硬件設備分配個用戶態的 Guest OS。

49842d16-4422-11eb-8b86-12bb97331649.jpg

理論上講沒有 IOMMU 實際上是可以工作的,但是硬件的角度,設備就擁有了整個存儲器的全局視圖,這是無論如何都非常不合理的事情,不應該讓設備擁有訪問任意物理內存的能力。

這里要提的另外一個功能就是對中斷的隔離,類似于下面的通過在中斷請求中添加標識來重定向中斷到對應的中斷回調上。

49faa900-4422-11eb-8b86-12bb97331649.jpg

VFIO 的作用就是通過 IOMMU 以安全的方式來將設備的訪問直接暴露到用戶空間,而不用專門完成某個驅動等待合并到上游或者使用之前的對 IOMMU 沒有感知的 UIO 的框架。通過 VFIO 向用戶態開放 IOMMU 的功能,編寫用戶態的驅動。

對于 IOMMU 來說,隔離的級別不一定是單個設備,比如一個后面有幾個設備的 PCI 橋,從 PCI 橋角度來說,都是來自 PCI 橋的總線事務。所以 IOMMU 有一個iommu_group的概念,代表一組與其他設備隔離的設備的集合。

IOMMU 根據手冊上講還有一個域的概念,可以簡單理解為一段物理地址的抽象。

在iommu_group的層級上,VFIO 封裝了一層container class,這個的作用對應于希望能夠在不同的iommu_group之間共享TLB和page tables,這個就是一個集合的概念,跟容器的那個概念沒啥關系,一個集合總歸要有個名字。通過把 host 的 device 和 driver 解綁,然后綁定到 VFIO 的 driver 上,就會有個/dev/vfio/$GROUP/出現,然后這個$GROUP代表的就是這個 device 的iommu_group號,如果要使用 VFIO 就要把這個 group 下的所有 device 都解綁才可以。

通過打開/dev/vfio/vfio就能創建一個 VFIO 的 container,然后再打開/dev/vfio/$GROUP用VFIO_GROUP_SET_CONTAINERioctl 把文件描述傳進去,就把 group 加進去了,如果支持多個 group 共享頁表等結構,還可以把相應的 group 也加進去。(再強調一遍這個頁表是總線地址到存儲器物理地址,IOMMU 管理的那個頁表)。

下面舉個官方的栗子,獲取 PCI 設備 00000d.0 的group_id(PCI 命名的規則是domainslot.func)

$ readlink /sys/bus/pci/devices/00000d.0/iommu_group../../../../kernel/iommu_groups/26

使用之前需要你已經加載了 VFIO 模塊

modprobevfio-pci

解綁 PCI 設備,然后創建一個 container id

$ lspci -n -s 00000d.006:0d.0 0401: 1102:0002 (rev 08)# echo 00000d.0 > /sys/bus/pci/devices/00000d.0/driver/unbind# echo 1102 0002 > /sys/bus/pci/drivers/vfio-pci/new_id

然后尋找其他同屬于一個 group 的設備

$ ls -l /sys/bus/pci/devices/0000:06:0d.0/iommu_group/devicestotal 0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:00:1e.0 -> ../../../../devices/pci0000:00/0000:00:1e.0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:06:0d.0 -> ../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:06:0d.1 ->../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.1PCI 橋00001e.0后面掛了兩個設備,一個是剛才加進去的00000d.0,還有一個是00000d.1,通過上面的步奏加進去就可以。

最后一步是讓用戶有權限使用這個 group。

#chownuser:user/dev/vfio/26

下面就是一個樣例,從用戶態使用 VFIO,整個的使用方式是通過ioctl來獲取中斷相關信息,以及注冊中斷處理函數,然后也是通過ioctl來獲取region信息,然后調用相應的mmap函數,讓 CPU 可以訪問內存。

int container, group, device, i;struct vfio_group_status group_status ={ .argsz = sizeof(group_status) };struct vfio_iommu_type1_info iommu_info = { .argsz = sizeof(iommu_info) };struct vfio_iommu_type1_dma_map dma_map = { .argsz = sizeof(dma_map) };struct vfio_device_info device_info = { .argsz = sizeof(device_info) }; /* Create a new container */container = open("/dev/vfio/vfio", O_RDWR); if (ioctl(container, VFIO_GET_API_VERSION) != VFIO_API_VERSION) /* Unknown API version */ if (!ioctl(container, VFIO_CHECK_EXTENSION, VFIO_TYPE1_IOMMU)) /* Doesn't support the IOMMU driver we want. */ /* Open the group */group = open("/dev/vfio/26", O_RDWR); /* Test the group is viable and available */ioctl(group, VFIO_GROUP_GET_STATUS, &group_status); if (!(group_status.flags & VFIO_GROUP_FLAGS_VIABLE)) /* Group is not viable (ie, not all devices bound for vfio) */ /* Add the group to the container */ioctl(group, VFIO_GROUP_SET_CONTAINER, &container); /* Enable the IOMMU model we want */ioctl(container, VFIO_SET_IOMMU, VFIO_TYPE1_IOMMU); /* Get addition IOMMU info */ioctl(container, VFIO_IOMMU_GET_INFO, &iommu_info); /* Allocate some space and setup a DMA mapping */dma_map.vaddr = mmap(0, 1024 * 1024, PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS, 0, 0);dma_map.size = 1024 * 1024;dma_map.iova = 0; /* 1MB starting at 0x0 from device view */dma_map.flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE; ioctl(container, VFIO_IOMMU_MAP_DMA, &dma_map); /* Get a file descriptor for the device */device = ioctl(group, VFIO_GROUP_GET_DEVICE_FD, "00000d.0"); /* Test and setup the device */ioctl(device, VFIO_DEVICE_GET_INFO, &device_info); for (i = 0; i < device_info.num_regions; i++) { struct vfio_region_info reg = { .argsz = sizeof(reg) }; reg.index = i; ioctl(device, VFIO_DEVICE_GET_REGION_INFO, ®); /* Setup mappings... read/write offsets, mmaps * For PCI devices, config space is a region */} for (i = 0; i < device_info.num_irqs; i++) { struct vfio_irq_info irq = { .argsz = sizeof(irq) }; irq.index = i; ioctl(device, VFIO_DEVICE_GET_IRQ_INFO, &irq); /* Setup IRQs... eventfds, VFIO_DEVICE_SET_IRQS */} /* Gratuitous device reset and go... */ioctl(device, VFIO_DEVICE_RESET);

在include/linux/vfio.h里面有完整的 API,這里就簡單略過。

在理解了一些基本原理和使用方式之后再來看 VFIO 的代碼應該叫就比較容易理解了。

首先是作為 PCI 設備的probe。主要是通過vfio_iommu_group_get分配iommu_group,然后調用vfio_add_group_dev初始化設備回調接口vfio_pci_ops,而remove就是反過來把對應的結構釋放掉就可以。然后再看注冊的回調函數結構體。

static const struct vfio_device_ops vfio_pci_ops = { .name = "vfio-pci", .open = vfio_pci_open, .release = vfio_pci_release, .ioctl = vfio_pci_ioctl, .read = vfio_pci_read, .write = vfio_pci_write, .mmap = vfio_pci_mmap, .request = vfio_pci_request,};

這里分析幾個關鍵的函數,他們會通過file_operations vfio_fops被間接的調用。

首先是 mmap,就是在調用vfio_pci_mmap的時候最終調用remap_pfn_range(vma, vma->vm_start, vma->vm_pgoff, req_len, vma->vm_page_prot);來將物理內存映射到用戶態空間,這就是上面的栗子中 mmap 系統調用的入口,而具體要映射的物理內存是通過一系列pci_resource_xxx宏從 PCI bar 空間讀出來的配置。

然后是 ioctl 接口,這個接口比較豐富,也簡單的看一下。比如VFIO_DEVICE_SET_IRQS會通過使用用戶態傳進來的結構體,調用vfio_pci_set_irqs_ioctl注冊中斷處理函數。而通過vfio_ioctl_set_iommu會設置 container 的 iommu_group 以及對應的 driver。read/write接口都是用于修改 PCI 配置信息的。

簡單的來說,VFIO 的主要工作是把設備通過 IOMMU 映射的 DMA 物理內存地址映射到用戶態中,讓用戶態程序可以自行操縱設備的傳輸,并且可以保證一定程度的安全,另外可以自行注冊中斷處理函數,從而在用戶態實現設備的驅動程序,通過這樣的框架,可以在 DPDK 中充分發揮用戶態協議棧的威力。

原文標題:VFIO —將 DMA 映射暴露給用戶態

文章出處:【微信公眾號:Linuxer】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴

原文標題:VFIO —將 DMA 映射暴露給用戶態

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    一文詳解AXI DMA技術

    AXI直接數值存取(Drect Memory Access,DMA)IP核在AXI4內存映射和AXI4流IP接口之間提供高帶寬的直接內存訪問。DMA可以選擇分散收集(Scatter Gather
    的頭像 發表于 04-03 09:32 ?794次閱讀
    一文詳解AXI <b class='flag-5'>DMA</b>技術

    如何使用DMA進行USART不定長度接收

    在上一講中,我們對USART進行了簡單介紹,并講解了如何在不使用DMA的情況下進行不定長度數據接收,本講著重講解如何使用DMA進行USART不定長度接收。
    的頭像 發表于 02-18 17:01 ?798次閱讀
    如何使用<b class='flag-5'>DMA</b>進行USART不定長度接收

    無法通過DMA讀取輸入捕獲寄存器的值

    想法:使用HC-SR04超聲波模塊檢測距離,利用輸入捕獲計算模塊高電平的時間與DMA傳輸輸入捕獲寄存器的數值。 配置描述: DMA設置為如下圖: 故障描述: 如果使用DMA,則數據顯
    發表于 02-10 14:31

    ZYNQ基礎---AXI DMA使用

    前言 在ZYNQ中進行PL-PS數據交互的時候,經常會使用到DMA,其實在前面的ZYNQ學習當中,也有學習過DMA的使用,那就是通過使用自定義的IP,完成HP接口向內存寫入和讀取數據的方式。同樣
    的頭像 發表于 01-06 11:13 ?1979次閱讀
    ZYNQ基礎---AXI <b class='flag-5'>DMA</b>使用

    TMS320DM643x DMP增強型DMA(EDMA)控制器用戶指南

    電子發燒友網站提供《TMS320DM643x DMP增強型DMA(EDMA)控制器用戶指南.pdf》資料免費下載
    發表于 12-16 10:25 ?0次下載
    TMS320DM643x DMP增強型<b class='flag-5'>DMA</b>(EDMA)控制器<b class='flag-5'>用戶</b>指南

    雅特力AT32F402/F405 DMA使用指南

    通道都支持外設的DMA請求映射到任意通道上。圖1.DMA控制器架構DMAMUX簡介對于如何外設的DMA請求
    的頭像 發表于 11-20 01:03 ?875次閱讀
    雅特力AT32F402/F405 <b class='flag-5'>DMA</b>使用指南

    如何設置內網IP的端口映射到公網

    在現代網絡環境中,端口映射(Port Mapping)是一項非常實用的技術,它允許用戶內網設備的服務端口映射到公網,使外網用戶可以訪問內網
    的頭像 發表于 11-14 14:23 ?1772次閱讀

    DMA是什么?詳細介紹

    DMA(Direct Memory Access)是一種允許某些硬件子系統直接訪問系統內存的技術,而無需中央處理單元(CPU)的介入。這種技術可以顯著提高數據傳輸速率,減輕CPU的負擔,并提高整體
    的頭像 發表于 11-11 10:49 ?1.8w次閱讀

    為什么gv7601在spi用戶訪問寄存器時,讀取音頻寄存器讀不到信息,是要設置什么嗎?

    為什么gv7601在spi用戶訪問寄存器時。讀取視頻寄存器正常。讀取音頻寄存器讀不到信息。是要設置什么嗎?
    發表于 11-04 08:21

    Juniper防火墻配置NAT映射的問題分析

    的情況下,啟用VIP的Server Auto Enable 功能引起的NAT映射失效問題,希望可以碰到相同問題的人一些參考。
    的頭像 發表于 10-29 09:55 ?852次閱讀
    Juniper防火墻配置NAT<b class='flag-5'>映射</b>的問題分析

    DMA與C64x的框架組件結合使用

    電子發燒友網站提供《DMA與C64x的框架組件結合使用.pdf》資料免費下載
    發表于 10-16 10:29 ?0次下載
    <b class='flag-5'>將</b><b class='flag-5'>DMA</b>與C64x的框架組件結合使用

    用于ADC的DMA乒乓

    電子發燒友網站提供《用于ADC的DMA乒乓.pdf》資料免費下載
    發表于 09-07 11:27 ?1次下載
    用于ADC的<b class='flag-5'>DMA</b>乒乓

    2k1000LA星云板上的SATA的DMA訪存異常

    地址的CLB(但是這里依舊有疑問:使用uboot提供的高32位中的高4位明明是0x9,但是為什么沒有被窗口過濾呢?)。 假設是窗口映射有問題,我IO DMA的win0的mask配置為 0xFFFF
    發表于 08-17 00:30

    揭秘車載VCU項目之外掛界的“大哥”DMA

    引腳配置此實例選擇CAN0進行配置。三、外設配置對于DMA,其采用的固定映射,對于通道0至通道15,其映射一部分外設,通道16至通道31映射一部分外設,所以對于外設要使用
    的頭像 發表于 07-30 08:11 ?1260次閱讀
    揭秘車載VCU項目之外掛界的“大哥”<b class='flag-5'>DMA</b>

    經驗分享 | DMA助力實時控制

    直接存儲器訪問(DMA,DirectMemoryAccess)的優點·提高系統效率:通過繞過CPU,DMA顯著減少了數據傳輸對CPU資源的占用,使得CPU能夠專注于其他計算任務,提升了系統整體
    的頭像 發表于 07-18 08:18 ?1315次閱讀
    經驗分享 | <b class='flag-5'>DMA</b>助力實時控制