linuxipc命令 ipc機制 linux
linux 如何查看 某塊共享內存被哪些文件在用
使用ipcs命令的-m(內存)和-p(進程)選項: # ipcs -mp IPC status from /dev/mem as of Wed Jun 26 14:49:19 BEIDT 2002
創新互聯專注于興山網站建設服務及定制,我們擁有豐富的企業做網站經驗。 熱誠為您提供興山營銷型網站建設,興山網站制作、興山網頁設計、興山網站官網定制、成都小程序開發服務,打造興山網絡公司原創品牌,更為您提供興山網站排名全網營銷落地服務。
Linux的IPC機制(三):Binder
正如上一章所說, 跨進程通信是需要內核空間做支持的. 傳統的 IPC 機制如 管道, Socket, 都是內核的一部分, 因此通過內核支持來實現進程間通信自然是沒問題的.
但是 Binder 并不是 Linux 系統內核的一部分, 那怎么辦呢, 這得益于 Linux 的動態內核可加載模塊 (Loadable Kernel Module, LKM)的機制
這樣 Android 系統就可以通過動態添加一個內核模塊運行在內核空間, 用戶進程進程之間通過這個內核模塊作為橋梁來實現通信.
那么在 Android 系統中用戶進程之間是如何通過這個內核模塊 (Binder Driver)來實現通信的呢? 顯然不是和上一章的傳統 IPC 通信一樣,進行兩次 copy 了, 不然Binder 也不有在性能方面的優勢了.
Binder IPC 機制中設計到的內存映射通過 mmap() 來實現, mmap() 是操作系統中一種內存映射的方法.
內存映射能減少數據 copy 的次數, 實現用戶空間和內核空間的高效互動. 兩個空間各自的修改也能直接反應在映射的內存區域, 從而被對方空間及時感知. 也正因為如此, 內存映射能夠提供對進程間通信的支持.
Binder IPC 正是基于內存映射( mmap() ) 來實現的, 但是 mmap() 通常是用在有物理介質的文件系統上的.
比如進程中的用戶區域是不能直接和物理設備打交道的, 如果想要把磁盤上的數據讀取到進程的用戶區域, 需要兩次 copy (磁盤 - 內核空間 - 用戶空間). 通常在這種場景下 mmap() 就能發揮作用, 通過在物理介質和用戶空間之間建立映射, 減少數據的 copy 次數, 用內存讀寫代替 I/O 讀寫, 提高文件讀取效率.
而 Binder 并不存在物理介質, 因此 Binder 驅動使用 mmap() 并不是為了在物理介質和用戶空間之間映射, 而是用來在內核空間創建數據接收的緩存空間.
一次完整的 Binder IPC 通信過程通常是這樣:
這樣就完成了一次進程間通信
如下圖:
介紹完 Binder IPC 的底層通信原理, 接下來我們看看實現層面是如何設計的
一次完成的進程間通信必然至少包含兩個進程, 通常我們稱通信的雙方分別為客戶端進程(Client) 和服務端進程(Server), 由于進程隔離機制的存在, 通信雙方必然需要借助 Binder 來實現.
BInder 是基于 C/S 架構. 是由一些列組件組成. 包括 Client, Server, ServiceManager, Binder 驅動.
Binder 驅動就如如同路由器一樣, 是整個通信的核心. 驅動負責進程之間 Binder 通信的建立 / 傳遞, Binder 引用計數管理, 數據包在進程之間的傳遞和交互等一系列底層支持.
ServiceManager 作用是將字符形式的 Binder 名字轉化成 Client 中對該 Binder 的引用, 使得 Client 能夠通過 Binder 的名字獲得對 Binder 實體的引用.
注冊了名字的 Binder 叫實名 Binder, 就像網站一樣除了 IP 地址以外還有自己的網址.
Server 創建了 Binder, 并為它起一個字符形式, 可讀易記的名字, 將這個 BInder 實體連同名字一起以數據包的形式通過 Binder 驅動 發送給 ServiceManager, 通知 ServiceManager 注冊一個名字為 "張三"的 Binder, 它位于某個 Server 中, 驅動為這個穿越進程邊界的 BInder 創建位于內核中的實體節點以及 ServiceManager 對實體的引用, 將名字以及新建的引用打包傳給 ServiceManager, ServiceManager 收到數據后從中取出名字和引用填入查找表.
ServiceManager 是一個進程, Server 又是一個另外的進程, Server 向 ServiceManager 中注冊 BInder 必然涉及到進程間通信. 當實現進程間通信又要用到進程間通信, 這就好像蛋可以孵出雞的前提確實要先找只雞下蛋! Binder 的實現比較巧妙, 就是預先創造一只雞來下蛋. ServiceManager 和其他進程同樣采用 Binder 通信, ServiceManager 是 Server 端, 有自己的 Binder 實體, 其他進程都是 Client, 需要通過這個 Binder 的引用來實現 Binder 的注冊, 查詢和獲取. ServiceManager 提供的 Binder 比較特殊, 它沒有名字也不需要注冊. 當一個進程使用 BINDERSETCONTEXT_MGR 命令將自己注冊成 ServiceManager 時 Binder 驅動會自動為它創建 Binder 實體(這就是那只預先造好的那只雞). 其實這個 Binder 實體的引用在所有 Client 中都固定為 0 , 而無需通過其他手段獲得. 也就是說, 一個 Server 想要向 ServiceManager 注冊自己的 Binder 就必須通過這個 0 號引用和 ServiceManager 的 Binder 通信. 這里說的 Client 是相對于 ServiceManager 而言的, 一個進程或者應用程序可能是提供服務的 Server, 但是對于 ServiceManager 來說它仍然是個 Client.
Server 向 ServiceManager 中注冊了 Binder 以后, Client 就能通過名字獲得 Binder 的引用. Client 也利用保留的 0 號引用向 ServiceManager 請求訪問某個 Binder. 比如,Client 申請訪問名字叫"張三"的 Binder 引用. ServiceManager 收到這個請求后從請求數據包中取出 Binder 名稱, 在查找表里找到對應的條目, 取出對應的 Binder 引用, 作為回復發送給發起請求的 Client. 從面相對象的角度看, Server 中的 Binder 實體現在有兩個引用: 一個位于 ServiceManager 中, 一個位于發起請求的 Client 中. 如果后面會有更多的 Client 請求該 Binder, 系統中就會有更多的引用指向這個 Binder, 就像 Java 中一個對象有多個引用一樣.
我們已經解釋清楚 Client, Server 借助 Binder 驅動完成跨進程通信的實現機制了, 但是還有個問題需要弄清楚, 比如 A 進程想要 B 進程中的某個對象(object) 是如何實現的呢, 畢竟它們屬于不同的進程, A 進程沒辦法直接使用 B 進程中的 object.
前面我們說過跨進程通信的過程都有 Binder 驅動的參與, 因此在數據流經 Binder 驅動的時候 Binder 驅動會對數據做一層轉換.
我們在 Client端,向 ServiceManager 獲取具體的 Server 端的 Binder 引用的時候,會首先進過 Binder 驅動,Binder 驅動它并不會把真正的 Server 的 Binder 引用返回給 Client 端,而是返回一個代理的 java 對象,該對象具有跟 Server 端的 Binder 引用相同的方法簽名,這個對象為 ProxyObject,他具有跟 Server 的 Binder 實例一樣的方法,只是這些方法并沒有 Server 端的能力,這些方法只需要把請求參數交給 Binder 驅動即可. 對于 Client 端來說和直接調用 Server 中的方法是一樣的.
了解了上面之后, 我們大致可以推算出 Binder 的通信過程
1. 注冊 ServiceManager
2. 注冊 Server
3. Client 獲取 Server 的 Binder 引用
4. Client 與 Server 通信
如何查看linux cpu ipc
使用ipcs命令查看,參數不同系統會有不同 Linux : ipcs -m Aix : ipcs -am 具體參數請參看操作系統幫助
本文標題:linuxipc命令 ipc機制 linux
文章URL:http://www.xueling.net.cn/article/hjpiji.html