Linux中断(interrupt)子系统

来源:互联网 发布:mac pro 2017发布时间 编辑:程序博客网 时间:2024/06/11 15:03
Linux中断(interrupt)子系统之一:中断系统基本原理2012-07-20 13:00:35

分类: LINUX

这个中断系列文章主要针对移动设备中的Linux进行讨论,文中的例子基本都是基于ARM这一体系架构,其他架构的原理其实也差不多,区别只是其中的硬件抽象层。内核版本基于3.3。虽然内核的版本不断地提升,不过自从上一次变更到当前的通用中断子系统后,大的框架性的东西并没有太大的改变。
/*****************************************************************************************************/
声明:本博内容均由http://blog.csdn.net/droidphone原创,转载请注明出处,谢谢!
/*****************************************************************************************************/
1. 设备、中断控制器和CPU

一个完整的设备中,与中断相关的硬件可以划分为3类,它们分别是:设备、中断控制器和CPU本身,下图展示了一个smp系统中的中断硬件的组成结构:

图 1.1 中断系统的硬件组成

设备 设备是发起中断的源,当设备需要请求某种服务的时候,它会发起一个硬件中断信号,通常,该信号会连接至中断控制器,由中断控制器做进一步的处理。在现代的移动设备中,发起中断的设备可以位于soc(system-on-chip)芯片的外部,也可以位于soc的内部,因为目前大多数soc都集成了大量的硬件IP,例如I2C、SPI、Display Controller等等。

中断控制器 中断控制器负责收集所有中断源发起的中断,现有的中断控制器几乎都是可编程的,通过对中断控制器的编程,我们可以控制每个中断源的优先级、中断的电器类型,还可以打开和关闭某一个中断源,在smp系统中,甚至可以控制某个中断源发往哪一个CPU进行处理。对于ARM架构的soc,使用较多的中断控制器是VIC(Vector Interrupt Controller),进入多核时代以后,GIC(General Interrupt Controller)的应用也开始逐渐变多。

CPU cpu是最终响应中断的部件,它通过对可编程中断控制器的编程操作,控制和管理者系统中的每个中断,当中断控制器最终判定一个中断可以被处理时,他会根据事先的设定,通知其中一个或者是某几个cpu对该中断进行处理,虽然中断控制器可以同时通知数个cpu对某一个中断进行处理,实际上,最后只会有一个cpu相应这个中断请求,但具体是哪个cpu进行响应是可能是随机的,中断控制器在硬件上对这一特性进行了保证,不过这也依赖于操作系统对中断系统的软件实现。在smp系统中,cpu之间也通过IPI(inter processor interrupt)中断进行通信。

2. IRQ编号

系统中每一个注册的中断源,都会分配一个唯一的编号用于识别该中断,我们称之为IRQ编号。IRQ编号贯穿在整个Linux的通用中断子系统中。在移动设备中,每个中断源的IRQ编号都会在arch相关的一些头文件中,例如arch/xxx/mach-xxx/include/irqs.h。驱动程序在请求中断服务时,它会使用IRQ编号注册该中断,中断发生时,cpu通常会从中断控制器中获取相关信息,然后计算出相应的IRQ编号,然后把该IRQ编号传递到相应的驱动程序中。

3. 在驱动程序中申请中断

Linux中断子系统向驱动程序提供了一系列的API,其中的一个用于向系统申请中断:

点击(此处)折叠或打开

  1. int request_threaded_irq(unsignedint irq, irq_handler_t handler,
  2. irq_handler_t thread_fn, unsigned long irqflags,
  3. const char *devname, void*dev_id)


其中,

  • irq是要申请的IRQ编号,
  • handler是中断处理服务函数,该函数工作在中断上下文中,如果不需要,可以传入NULL,但是不可以和thread_fn同时为NULL;
  • thread_fn是中断线程的回调函数,工作在内核进程上下文中,如果不需要,可以传入NULL,但是不可以和handler同时为NULL;
  • irqflags是该中断的一些标志,可以指定该中断的电气类型,是否共享等信息;
  • devname指定该中断的名称;
  • dev_id用于共享中断时的cookie data,通常用于区分共享中断具体由哪个设备发起;

关于该API的详细工作机理我们后面再讨论。

4. 通用中断子系统(Generic irq)的软件抽象

在通用中断子系统(generic irq)出现之前,内核使用__do_IRQ处理所有的中断,这意味着__do_IRQ中要处理各种类型的中断,这会导致软件的复杂性增加,层次不分明,而且代码的可重用性也不好。事实上,到了内核版本2.6.38,__do_IRQ这种方式已经彻底在内核的代码中消失了。通用中断子系统的原型最初出现于ARM体系中,一开始内核的开发者们把3种中断类型区分出来,他们是:

  • 电平触发中断(level type)
  • 边缘触发中断(edge type)
  • 简易的中断(simple type)

后来又针对某些需要回应eoi(end of interrupt)的中断控制器,加入了fast eoi type,针对smp加入了per cpu type。把这些不同的中断类型抽象出来后,成为了中断子系统的流控层。要使所有的体系架构都可以重用这部分的代码,中断控制器也被进一步地封装起来,形成了中断子系统中的硬件封装层。我们可以用下面的图示表示通用中断子系统的层次结构:

图 4.1 通用中断子系统的层次结构

硬件封装层 它包含了体系架构相关的所有代码,包括中断控制器的抽象封装,arch相关的中断初始化,以及各个IRQ的相关数据结构的初始化工作,cpu的中断入口也会在arch相关的代码中实现。中断通用逻辑层通过标准的封装接口(实际上就是struct irq_chip定义的接口)访问并控制中断控制器的行为,体系相关的中断入口函数在获取IRQ编号后,通过中断通用逻辑层提供的标准函数,把中断调用传递到中断流控层中。我们看看irq_chip的部分定义:

点击(此处)折叠或打开

  1. struct irq_chip {
  2. const char *name;
  3. unsigned int (*irq_startup)(struct irq_data*data);
  4. void (*irq_shutdown)(struct irq_data*data);
  5. void (*irq_enable)(struct irq_data*data);
  6. void (*irq_disable)(struct irq_data*data);

  7. void (*irq_ack)(struct irq_data*data);
  8. void (*irq_mask)(struct irq_data*data);
  9. void (*irq_mask_ack)(struct irq_data*data);
  10. void (*irq_unmask)(struct irq_data*data);
  11. void (*irq_eoi)(struct irq_data*data);

  12. int (*irq_set_affinity)(struct irq_data*data, const struct cpumask *dest, bool force);
  13. int (*irq_retrigger)(struct irq_data*data);
  14. int (*irq_set_type)(struct irq_data*data, unsignedint flow_type);
  15. int (*irq_set_wake)(struct irq_data*data, unsignedint on);
  16. ......
  17. };


看到上面的结构定义,很明显,它实际上就是对中断控制器的接口抽象,我们只要对每个中断控制器实现以上接口(不必全部),并把它和相应的irq关联起来,上层的实现即可通过这些接口访问中断控制器。而且,同一个中断控制器的代码可以方便地被不同的平台所重用。

中断流控层 所谓中断流控是指合理并正确地处理连续发生的中断,比如一个中断在处理中,同一个中断再次到达时如何处理,何时应该屏蔽中断,何时打开中断,何时回应中断控制器等一系列的操作。该层实现了与体系和硬件无关的中断流控处理操作,它针对不同的中断电气类型(level,edge......),实现了对应的标准中断流控处理函数,在这些处理函数中,最终会把中断控制权传递到驱动程序注册中断时传入的处理函数或者是中断线程中。目前内核提供了以下几个主要的中断流控函数的实现(只列出部分):

  • handle_simple_irq();
  • handle_level_irq(); 电平中断流控处理程序
  • handle_edge_irq(); 边沿触发中断流控处理程序
  • handle_fasteoi_irq(); 需要eoi的中断处理器使用的中断流控处理程序
  • handle_percpu_irq(); 该irq只有单个cpu响应时使用的流控处理程序

中断通用逻辑层 该层实现了对中断系统几个重要数据的管理,并提供了一系列的辅助管理函数。同时,该层还实现了中断线程的实现和管理,共享中断和嵌套中断的实现和管理,另外它还提供了一些接口函数,它们将作为硬件封装层和中断流控层以及驱动程序API层之间的桥梁,例如以下API:

  • generic_handle_irq();
  • irq_to_desc();
  • irq_set_chip();
  • irq_set_chained_handler();

驱动程序API 该部分向驱动程序提供了一系列的API,用于向系统申请/释放中断,打开/关闭中断,设置中断类型和中断唤醒系统的特性等操作。驱动程序的开发者通常只会使用到这一层提供的这些API即可完成驱动程序的开发工作,其他的细节都由另外几个软件层较好地“隐藏”起来了,驱动程序开发者无需再关注底层的实现,这看起来确实是一件美妙的事情,不过我认为,要想写出好的中断代码,还是花点时间了解一下其他几层的实现吧。其中的一些API如下:

  • enable_irq();
  • disable_irq();
  • disable_irq_nosync();
  • request_threaded_irq();
  • irq_set_affinity();

这里不再对每一层做详细的介绍,我将会在本系列的其他几篇文章中做深入的探讨。

5. irq描述结构:struct irq_desc

整个通用中断子系统几乎都是围绕着irq_desc结构进行,系统中每一个irq都对应着一个irq_desc结构,所有的irq_desc结构的组织方式有两种:

基于数组方式 平台相关板级代码事先根据系统中的IRQ数量,定义常量:NR_IRQS,在kernel/irq/irqdesc.c中使用该常量定义irq_desc结构数组:

点击(此处)折叠或打开

  1. struct irq_desc irq_desc[NR_IRQS] __cacheline_aligned_in_smp= {
  2. [0 ... NR_IRQS-1]= {
  3. .handle_irq = handle_bad_irq,
  4. .depth = 1,
  5. .lock = __RAW_SPIN_LOCK_UNLOCKED(irq_desc->lock),
  6. }
  7. };


基于基数树方式 当内核的配置项CONFIG_SPARSE_IRQ被选中时,内核使用基数树(radix tree)来管理irq_desc结构,这一方式可以动态地分配irq_desc结构,对于那些具备大量IRQ数量或者IRQ编号不连续的系统,使用该方式管理irq_desc对内存的节省有好处,而且对那些自带中断控制器管理设备自身多个中断源的外部设备,它们可以在驱动程序中动态地申请这些中断源所对应的irq_desc结构,而不必在系统的编译阶段保留irq_desc结构所需的内存。

下面我们看一看irq_desc的部分定义:

点击(此处)折叠或打开

  1. struct irq_data {
  2. unsigned int irq;
  3. unsigned long hwirq;
  4. unsigned int node;
  5. unsigned int state_use_accessors;
  6. struct irq_chip *chip;
  7. struct irq_domain *domain;
  8. void *handler_data;
  9. void *chip_data;
  10. struct msi_desc *msi_desc;
  11. #ifdef CONFIG_SMP
  12. cpumask_var_t affinity;
  13. #endif
  14. };


点击(此处)折叠或打开

  1. struct irq_desc {
  2. struct irq_data irq_data;
  3. unsigned int __percpu *kstat_irqs;
  4. irq_flow_handler_t handle_irq;
  5. #ifdef CONFIG_IRQ_PREFLOW_FASTEOI
  6. irq_preflow_handler_t preflow_handler;
  7. #endif
  8. struct irqaction *action;/* IRQ action list*/
  9. unsigned int status_use_accessors;
  10. unsigned int depth;/* nested irq disables*/
  11. unsigned int wake_depth;/* nested wake enables*/
  12. unsigned int irq_count;/* For detecting broken IRQs */

  13. raw_spinlock_t lock;
  14. struct cpumask *percpu_enabled;
  15. #ifdef CONFIG_SMP
  16. const struct cpumask *affinity_hint;
  17. struct irq_affinity_notify *affinity_notify;
  18. #ifdef CONFIG_GENERIC_PENDING_IRQ
  19. cpumask_var_t pending_mask;
  20. #endif
  21. #endif
  22. wait_queue_head_t wait_for_threads;

  23. const char *name;
  24. } ____cacheline_internodealigned_in_smp;


对于irq_desc中的主要字段做一个解释:

irq_data 这个内嵌结构在2.6.37版本引入,之前的内核版本的做法是直接把这个结构中的字段直接放置在irq_desc结构体中,然后在调用硬件封装层的chip->xxx()回调中传入IRQ编号作为参数,但是底层的函数经常需要访问->handler_data,->chip_data,->msi_desc等字段,这需要利用irq_to_desc(irq)来获得irq_desc结构的指针,然后才能访问上述字段,者带来了性能的降低,尤其在配置为sparse irq的系统中更是如此,因为这意味着基数树的搜索操作。为了解决这一问题,内核开发者把几个低层函数需要使用的字段单独封装为一个结构,调用时的参数则改为传入该结构的指针。实现同样的目的,那为什么不直接传入irq_desc结构指针?因为这会破坏层次的封装性,我们不希望低层代码可以看到不应该看到的部分,仅此而已。

kstat_irqs 用于irq的一些统计信息,这些统计信息可以从proc文件系统中查询。

action 中断响应链表,当一个irq被触发时,内核会遍历该链表,调用action结构中的回调handler或者激活其中的中断线程,之所以实现为一个链表,是为了实现中断的共享,多个设备共享同一个irq,这在外围设备中是普遍存在的。

status_use_accessors 记录该irq的状态信息,内核提供了一系列irq_settings_xxx的辅助函数访问该字段,详细请查看kernel/irq/settings.h

depth 用于管理enable_irq()/disable_irq()这两个API的嵌套深度管理,每次enable_irq时该值减去1,每次disable_irq时该值加1,只有depth==0时才真正向硬件封装层发出关闭irq的调用,只有depth==1时才会向硬件封装层发出打开irq的调用。disable的嵌套次数可以比enable的次数多,此时depth的值大于1,随着enable的不断调用,当depth的值为1时,在向硬件封装层发出打开irq的调用后,depth减去1后,此时depth为0,此时处于一个平衡状态,我们只能调用disable_irq,如果此时enable_irq被调用,内核会报告一个irq失衡的警告,提醒驱动程序的开发人员检查自己的代码。

lock 用于保护irq_desc结构本身的自旋锁。

affinity_hit 用于提示用户空间,作为优化irq和cpu之间的亲缘关系的依据。

pending_mask 用于调整irq在各个cpu之间的平衡。

wait_for_threads 用于synchronize_irq(),等待该irq所有线程完成。

irq_data结构中的各字段:

irq 该结构所对应的IRQ编号。

hwirq 硬件irq编号,它不同于上面的irq;

node 通常用于hwirq和irq之间的映射操作;

state_use_accessors 硬件封装层需要使用的状态信息,不要直接访问该字段,内核定义了一组函数用于访问该字段:irqd_xxxx(),参见include/linux/irq.h。

chip 指向该irq所属的中断控制器的irq_chip结构指针

handler_data 每个irq的私有数据指针,该字段由硬件封转层使用,例如用作底层硬件的多路复用中断。

chip_data 中断控制器的私有数据,该字段由硬件封转层使用。

msi_desc 用于PCIe总线的MSI或MSI-X中断机制。

affinity 记录该irq与cpu之间的亲缘关系,它其实是一个bit-mask,每一个bit代表一个cpu,置位后代表该cpu可能处理该irq。


这是通用中断子系统系列文章的第一篇,这里不会详细介绍各个软件层次的实现原理,但是有必要对整个架构做简要的介绍:

  • 系统启动阶段,取决于内核的配置,内核会通过数组或基数树分配好足够多的irq_desc结构;
  • 根据不同的体系结构,初始化中断相关的硬件,尤其是中断控制器;
  • 为每个必要irq的irq_desc结构填充默认的字段,例如irq编号,irq_chip指针,根据不同的中断类型配置流控handler;
  • 设备驱动程序在初始化阶段,利用request_threaded_irq() api申请中断服务,两个重要的参数是handler和thread_fn;
  • 当设备触发一个中断后,cpu会进入事先设定好的中断入口,它属于底层体系相关的代码,它通过中断控制器获得irq编号,在对irq_data结构中的某些字段进行处理后,会将控制权传递到中断流控层(通过irq_desc->handle_irq);
  • 中断流控处理代码在作出必要的流控处理后,通过irq_desc->action链表,取出驱动程序申请中断时注册的handler和thread_fn,根据它们的赋值情况,或者只是调用handler回调,或者启动一个线程执行thread_fn,又或者两者都执行;
  • 至此,中断最终由驱动程序进行了响应和处理。
6. 中断子系统的proc文件接口

在/proc目录下面,有两个与中断子系统相关的文件和子目录,它们是:

  • /proc/interrupts:文件
  • /proc/irq:子目录

读取interrupts会依次显示irq编号,每个cpu对该irq的处理次数,中断控制器的名字,irq的名字,以及驱动程序注册该irq时使用的名字,以下是一个例子:

/proc/irq目录下面会为每个注册的irq创建一个以irq编号为名字的子目录,每个子目录下分别有以下条目:

  • smp_affinity irq和cpu之间的亲缘绑定关系;
  • smp_affinity_hint 只读条目,用于用户空间做irq平衡只用;
  • spurious 可以获得该irq被处理和未被处理的次数的统计信息;
  • handler_name 驱动程序注册该irq时传入的处理程序的名字;

根据irq的不同,以上条目不一定会全部都出现,以下是某个设备的例子:

# cd /proc/irq
# ls
ls
332
248
......
......
12
11
default_smp_affinity


# ls 332
bcmsdh_sdmmc
spurious
node
affinity_hint
smp_affinity


# cat 332/smp_affinity
3

可见,以上设备是一个使用双核cpu的设备,因为smp_affinity的值是3,系统默认每个中断可以由两个cpu进行处理。


本章内容结束。接下来的计划:

Linux中断(interrupt)子系统之二:arch相关的硬件封装层

Linux中断(interrupt)子系统之三:中断流控处理层

Linux中断(interrupt)子系统之四:驱动程序接口层

Linux中断(interrupt)子系统之五:软件中断(

Linux中断(interrupt)子系统之二:arch相关的硬件封装层2012-07-20 13:08:50

分类: LINUX

Linux的通用中断子系统的一个设计原则就是把底层的硬件实现尽可能地隐藏起来,使得驱动程序的开发人员不用关注底层的实现,要实现这个目标,内核的开发者们必须把硬件相关的内容剥离出来,然后定义一些列标准的接口供上层访问,上层的开发人员只要知道这些接口即可完成对中断的进一步处理和控制。对底层的封装主要包括两部分:

  • 实现不同体系结构中断入口,这部分代码通常用asm实现;
  • 中断控制器进行封装和实现;

本文的内容正是要讨论硬件封装层的实现细节。我将以ARM体系进行介绍,大部分的代码位于内核代码树的arch/arm/目录内。

/*****************************************************************************************************/
声明:本博内容均由http://blog.csdn.net/droidphone原创,转载请注明出处,谢谢!
/*****************************************************************************************************/

1. CPU的中断入口

我们知道,arm的异常和复位向量表有两种选择,一种是低端向量,向量地址位于0x00000000,另一种是高端向量,向量地址位于0xffff0000,Linux选择使用高端向量模式,也就是说,当异常发生时,CPU会把PC指针自动跳转到始于0xffff0000开始的某一个地址上:

ARM的异常向量表地址异常种类FFFF0000复位FFFF0004未定义指令FFFF0008软中断(swi)FFFF000CPrefetch abortFFFF0010Data abortFFFF0014保留FFFF0018IRQFFFF001CFIQ中断向量表在arch/arm/kernel/entry_armv.S中定义,为了方便讨论,下面只列出部分关键的代码:

点击(此处)折叠或打开

  1. .globl __stubs_start
  2. __stubs_start:

  3. vector_stub irq, IRQ_MODE, 4

  4. .long __irq_usr @ 0 (USR_26 / USR_32)
  5. .long __irq_invalid @ 1 (FIQ_26 / FIQ_32)
  6. .long __irq_invalid @ 2 (IRQ_26 / IRQ_32)
  7. .long __irq_svc @ 3 (SVC_26 / SVC_32)

  8. vector_stub dabt, ABT_MODE, 8

  9. .long __dabt_usr @ 0 (USR_26 / USR_32)
  10. .long __dabt_invalid @ 1 (FIQ_26 / FIQ_32)
  11. .long __dabt_invalid @ 2 (IRQ_26 / IRQ_32)
  12. .long __dabt_svc @ 3 (SVC_26 / SVC_32)

  13. vector_fiq:
  14. disable_fiq
  15. subs pc, lr, #4
  16. ......
  17. .globl __stubs_end
  18. __stubs_end:



  19. .equ stubs_offset, __vectors_start+ 0x200 - __stubs_start
  20. .globl __vectors_start
  21. __vectors_start:
  22. ARM( swi SYS_ERROR0 )
  23. THUMB( svc #0 )
  24. THUMB( nop )
  25. W(b) vector_und+ stubs_offset
  26. W(ldr) pc,.LCvswi + stubs_offset
  27. W(b) vector_pabt+ stubs_offset
  28. W(b) vector_dabt+ stubs_offset
  29. W(b) vector_addrexcptn+ stubs_offset
  30. W(b) vector_irq+ stubs_offset
  31. W(b) vector_fiq+ stubs_offset

  32. .globl __vectors_end
  33. __vectors_end:


代码被分为两部分:

  • 第一部分是真正的向量跳转表,位于__vectors_start和__vectors_end之间;
  • 第二部分是处理跳转的部分,位于__stubs_start和__stubs_end之间;


点击(此处)折叠或打开

  1. vector_stub irq, IRQ_MODE, 4


以上这一句把宏展开后实际上就是定义了vector_irq,根据进入中断前的cpu模式,分别跳转到__irq_usr或__irq_svc。

点击(此处)折叠或打开

  1. vector_stub dabt, ABT_MODE, 8


以上这一句把宏展开后实际上就是定义了vector_dabt,根据进入中断前的cpu模式,分别跳转到__dabt_usr或__dabt_svc。


系统启动阶段,位于arch/arm/kernel/traps.c中的early_trap_init()被调用:

点击(此处)折叠或打开

  1. void __init early_trap_init(void)
  2. {
  3. ......
  4. /*
  5. * Copy the vectors, stubsand kuser helpers (in entry-armv.S)
  6. * into the vector page, mapped at 0xffff0000,and ensure these
  7. * are visible to the instruction stream.
  8. */
  9. memcpy((void*)vectors, __vectors_start, __vectors_end- __vectors_start);
  10. memcpy((void*)vectors + 0x200, __stubs_start, __stubs_end- __stubs_start);
  11. ......
  12. }


以上两个memcpy会把__vectors_start开始的代码拷贝到0xffff0000处,把__stubs_start开始的代码拷贝到0xFFFF0000+0x200处,这样,异常中断到来时,CPU就可以正确地跳转到相应中断向量入口并执行他们。

图1.1 Linux中ARM体系的中断向量拷贝过程

对于系统的外部设备来说,通常都是使用IRQ中断,所以我们只关注__irq_usr和__irq_svc,两者的区别是进入和退出中断时是否进行用户栈和内核栈之间的切换,还有进程调度和抢占的处理等,这些细节不在这里讨论。两个函数最终都会进入irq_handler这个宏:

点击(此处)折叠或打开

  1. .macro irq_handler
  2. #ifdef CONFIG_MULTI_IRQ_HANDLER
  3. ldr r1, =handle_arch_irq
  4. mov r0, sp
  5. adr lr, BSYM(9997f)
  6. ldr pc, [r1]
  7. #else
  8. arch_irq_handler_default
  9. #endif
  10. 9997:
  11. .endm


如果选择了MULTI_IRQ_HANDLER配置项,则意味着允许平台的代码可以动态设置irq处理程序,平台代码可以修改全局变量:handle_arch_irq,从而可以修改irq的处理程序。这里我们讨论默认的实现:arch_irq_handler_default,它位于arch/arm/include/asm/entry_macro_multi.S中:

点击(此处)折叠或打开

  1. .macro arch_irq_handler_default
  2. get_irqnr_preamble r6, lr
  3. 1: get_irqnr_and_base r0, r2, r6, lr
  4. movne r1, sp
  5. @
  6. @ routine called with r0 = irq number, r1= struct pt_regs *
  7. @
  8. adrne lr, BSYM(1b)
  9. bne asm_do_IRQ
  10. ......


get_irqnr_preamble和get_irqnr_and_base两个宏由machine级的代码定义,目的就是从中断控制器中获得IRQ编号,紧接着就调用asm_do_IRQ,从这个函数开始,中断程序进入C代码中,传入的参数是IRQ编号和寄存器结构指针,这个函数在arch/arm/kernel/irq.c中实现:

点击(此处)折叠或打开

  1. /*
  2. * asm_do_IRQ is the interfaceto be used from assembly code.
  3. */
  4. asmlinkage void __exception_irq_entry
  5. asm_do_IRQ(unsigned int irq, struct pt_regs *regs)
  6. {
  7. handle_IRQ(irq, regs);
  8. }


到这里,中断程序完成了从asm代码到C代码的传递,并且获得了引起中断的IRQ编号。

2. 初始化
与通用中断子系统相关的初始化由start_kernel()函数发起,调用流程如下图所视:

图2.1 通用中断子系统的初始化

  • 首先,在setup_arch函数中,early_trap_init被调用,其中完成了第1节所说的中断向量的拷贝和重定位工作。
  • 然后,start_kernel发出early_irq_init调用,early_irq_init属于与硬件和平台无关的通用逻辑层,它完成irq_desc结构的内存申请,为它们其中某些字段填充默认值,完成后调用体系相关的arch_early_irq_init函数完成进一步的初始化工作,不过ARM体系没有实现arch_early_irq_init。
  • 接着,start_kernel发出init_IRQ调用,它会直接调用所属板子machine_desc结构体中的init_irq回调。machine_desc通常在板子的特定代码中,使用MACHINE_START和MACHINE_END宏进行定义。
  • machine_desc->init_irq()完成对中断控制器的初始化,为每个irq_desc结构安装合适的流控handler,为每个irq_desc结构安装irq_chip指针,使他指向正确的中断控制器所对应的irq_chip结构的实例,同时,如果该平台中的中断线有多路复用(多个中断公用一个irq中断线)的情况,还应该初始化irq_desc中相应的字段和标志,以便实现中断控制器的级联。
3. 中断控制器的软件抽象:struct irq_chip

正如上一篇文章Linux中断(interrupt)子系统之一:中断系统基本原理所述,所有的硬件中断在到达CPU之前,都要先经过中断控制器进行汇集,合乎要求的中断请求才会通知cpu进行处理,中断控制器主要完成以下这些功能:

  • 对各个irq的优先级进行控制;
  • 向CPU发出中断请求后,提供某种机制让CPU获得实际的中断源(irq编号);
  • 控制各个irq的电气触发条件,例如边缘触发或者是电平触发;
  • 使能(enable)或者屏蔽(mask)某一个irq;
  • 提供嵌套中断请求的能力;
  • 提供清除中断请求的机制(ack);
  • 有些控制器还需要CPU在处理完irq后对控制器发出eoi指令(end of interrupt);
  • 在smp系统中,控制各个irq与cpu之间的亲缘关系(affinity);

通用中断子系统把中断控制器抽象为一个数据结构:struct irq_chip,其中定义了一系列的操作函数,大部分多对应于上面所列的某个功能:


点击(此处)折叠或打开

  1. struct irq_chip {
  2. const char *name;
  3. unsigned int (*irq_startup)(struct irq_data*data);
  4. void (*irq_shutdown)(struct irq_data*data);
  5. void (*irq_enable)(struct irq_data*data);
  6. void (*irq_disable)(struct irq_data*data);

  7. void (*irq_ack)(struct irq_data*data);
  8. void (*irq_mask)(struct irq_data*data);
  9. void (*irq_mask_ack)(struct irq_data*data);
  10. void (*irq_unmask)(struct irq_data*data);
  11. void (*irq_eoi)(struct irq_data*data);

  12. int (*irq_set_affinity)(struct irq_data*data, const struct cpumask *dest, bool force);
  13. int (*irq_retrigger)(struct irq_data*data);
  14. int (*irq_set_type)(struct irq_data*data, unsignedint flow_type);
  15. int (*irq_set_wake)(struct irq_data*data, unsignedint on);

  16. void (*irq_bus_lock)(struct irq_data*data);
  17. void (*irq_bus_sync_unlock)(struct irq_data*data);

  18. void (*irq_cpu_online)(struct irq_data*data);
  19. void (*irq_cpu_offline)(struct irq_data*data);

  20. void (*irq_suspend)(struct irq_data*data);
  21. void (*irq_resume)(struct irq_data*data);
  22. void (*irq_pm_shutdown)(struct irq_data*data);

  23. void (*irq_print_chip)(struct irq_data*data, struct seq_file*p);

  24. unsigned long flags;

  25. /* Currently used only by UML, might disappear oneday.*/
  26. #ifdef CONFIG_IRQ_RELEASE_METHOD
  27. void (*release)(unsignedint irq, void*dev_id);
  28. #endif
  29. };


各个字段解释如下:


name 中断控制器的名字,会出现在 /proc/interrupts中。

irq_startup 第一次开启一个irq时使用。

irq_shutdown 与irq_starup相对应。

irq_enable 使能该irq,通常是直接调用irq_unmask()。

irq_disable 禁止该irq,通常是直接调用irq_mask,严格意义上,他俩其实代表不同的意义,disable表示中断控制器根本就不响应该irq,而mask时,中断控制器可能响应该irq,只是不通知CPU,这时,该irq处于pending状态。类似的区别也适用于enable和unmask。

irq_ack 用于CPU对该irq的回应,通常表示cpu希望要清除该irq的pending状态,准备接受下一个irq请求。

irq_mask 屏蔽该irq。

irq_unmask 取消屏蔽该irq。

irq_mask_ack 相当于irq_mask + irq_ack。

irq_eoi 有些中断控制器需要在cpu处理完该irq后发出eoi信号,该回调就是用于这个目的。

irq_set_affinity 用于设置该irq和cpu之间的亲缘关系,就是通知中断控制器,该irq发生时,那些cpu有权响应该irq。当然,中断控制器会在软件的配合下,最终只会让一个cpu处理本次请求。

irq_set_type 设置irq的电气触发条件,例如IRQ_TYPE_LEVEL_HIGH或IRQ_TYPE_EDGE_RISING。

irq_set_wake 通知电源管理子系统,该irq是否可以用作系统的唤醒源。

以上大部分的函数接口的参数都是irq_data结构指针,irq_data结构的由来在上一篇文章已经说过,这里仅贴出它的定义,各字段的意义请参考注释:


点击(此处)折叠或打开

  1. /**
  2. * struct irq_data - per irq and irq chip data passed downto chip functions
  3. * @irq: interrupt number
  4. * @hwirq: hardware interrupt number, localto the interrupt domain
  5. * @node: node index usefulfor balancing
  6. * @state_use_accessors: status informationfor irq chip functions.
  7. * Use accessor functions to deal with it
  8. * @chip: low level interrupt hardware access
  9. * @domain: Interrupt translation domain; responsiblefor mapping
  10. * between hwirq number and linux irq number.
  11. * @handler_data: per-IRQ datafor the irq_chip methods
  12. * @chip_data: platform-specific per-chipprivate data for the chip
  13. * methods,to allow shared chip implementations
  14. * @msi_desc: MSI descriptor
  15. * @affinity: IRQ affinityon SMP
  16. *
  17. * The fields here need to overlay the ones in irq_desc until we
  18. * cleaned up the direct references and switched everything over to
  19. * irq_data.
  20. */
  21. struct irq_data {
  22. unsigned int irq;
  23. unsigned long hwirq;
  24. unsigned int node;
  25. unsigned int state_use_accessors;
  26. struct irq_chip *chip;
  27. struct irq_domain *domain;
  28. void *handler_data;
  29. void *chip_data;
  30. struct msi_desc *msi_desc;
  31. #ifdef CONFIG_SMP
  32. cpumask_var_t affinity;
  33. #endif
  34. };


根据设备使用的中断控制器的类型,体系架构的底层的开发只要实现上述接口中的各个回调函数,然后把它们填充到irq_chip结构的实例中,最终把该irq_chip实例注册到irq_desc.irq_data.chip字段中,这样各个irq和中断控制器就进行了关联,只要知道irq编号,即可得到对应到irq_desc结构,进而可以通过chip指针访问中断控制器。

4. 进入流控处理层

进入C代码的第一个函数是asm_do_IRQ,在ARM体系中,这个函数只是简单地调用handle_IRQ:


点击(此处)折叠或打开

  1. /*
  2. * asm_do_IRQ is the interfaceto be used from assembly code.
  3. */
  4. asmlinkage void __exception_irq_entry
  5. asm_do_IRQ(unsigned int irq, struct pt_regs *regs)
  6. {
  7. handle_IRQ(irq, regs);
  8. }


handle_IRQ本身也不是很复杂:

点击(此处)折叠或打开

  1. void handle_IRQ(unsignedint irq, struct pt_regs*regs)
  2. {
  3. struct pt_regs *old_regs = set_irq_regs(regs);

  4. irq_enter();

  5. /*
  6. * Some hardware gives randomly wrong interrupts. Rather
  7. * than crashing,do something sensible.
  8. */
  9. if (unlikely(irq>= nr_irqs)){
  10. if (printk_ratelimit())
  11. printk(KERN_WARNING "Bad IRQ%u\n", irq);
  12. ack_bad_irq(irq);
  13. } else {
  14. generic_handle_irq(irq);
  15. }

  16. /* AT91 specific workaround*/
  17. irq_finish(irq);

  18. irq_exit();
  19. set_irq_regs(old_regs);
  20. }


irq_enter主要是更新一些系统的统计信息,同时在__irq_enter宏中禁止了进程的抢占:

点击(此处)折叠或打开

  1. #define __irq_enter()\
  2. do { \
  3. account_system_vtime(current);\
  4. add_preempt_count(HARDIRQ_OFFSET);\
  5. trace_hardirq_enter();\
  6. } while(0)


CPU一旦响应IRQ中断后,ARM会自动把CPSR中的I位置位,表明禁止新的IRQ请求,直到中断控制转到相应的流控层后才通过local_irq_enable()打开。你可能会奇怪,既然此时的irq中断都是都是被禁止的,为何还要禁止抢占?这是因为要考虑中断嵌套的问题,一旦流控层或驱动程序主动通过local_irq_enable打开了IRQ,而此时该中断还没处理完成,新的irq请求到达,这时代码会再次进入irq_enter,在本次嵌套中断返回时,内核不希望进行抢占调度,而是要等到最外层的中断处理完成后才做出调度动作,所以才有了禁止抢占这一处理。

下一步,generic_handle_irq被调用,generic_handle_irq是通用逻辑层提供的API,通过该API,中断的控制被传递到了与体系结构无关的中断流控层:


点击(此处)折叠或打开

  1. int generic_handle_irq(unsignedint irq)
  2. {
  3. struct irq_desc *desc = irq_to_desc(irq);

  4. if (!desc)
  5. return -EINVAL;
  6. generic_handle_irq_desc(irq, desc);
  7. return 0;
  8. }


最终会进入该irq注册的流控处理回调中:

点击(此处)折叠或打开

  1. static inline void generic_handle_irq_desc(unsignedint irq, struct irq_desc*desc)
  2. {
  3. desc->handle_irq(irq, desc);
  4. }


5. 中断控制器的级联
在实际的设备中,经常存在多个中断控制器,有时多个中断控制器还会进行所谓的级联。为了方便讨论,我们把直接和CPU相连的中断控制器叫做根控制器,另外一些和跟控制器相连的叫子控制器。根据子控制器的位置,我们把它们分为两种类型:
  • 机器级别的级联 子控制器位于SOC内部,或者子控制器在SOC的外部,但是是某个板子系列的标准配置,如图5.1的左边所示;
  • 设备级别的级联 子控制器位于某个外部设备中,用于汇集该设备发出的多个中断,如图5.1的右边所示;

图5.1 中断控制器的级联类型

对于机器级别的级联,级联的初始化代码理所当然地位于板子的初始化代码中(arch/xxx/mach-xxx),因为只要是使用这个板子或SOC的设备,必然要使用这个子控制器。而对于设备级别的级联,因为该设备并不一定是系统的标配设备,所以中断控制器的级联操作应该在该设备的驱动程序中实现。机器设备的级联,因为得益于事先已经知道子控制器的硬件连接信息,内核可以方便地为子控制器保留相应的irq_desc结构和irq编号,处理起来相对简单。设备级别的级联则不一样,驱动程序必须动态地决定组合设备中各个子设备的irq编号和irq_desc结构。本章我只讨论机器级别的级联,设备级别的关联可以使用同样的原理,也可以实现为共享中断,我会在本系列接下来的文章中讨论。

要实现中断控制器的级联,要使用以下几个的关键数据结构字段和通用中断逻辑层的API:

irq_desc.handle_irq irq的流控处理回调函数,子控制器在把多个irq汇集起来后,输出端连接到根控制器的其中一个irq中断线输入脚,这意味着,每个子控制器的中断发生时,CPU一开始只会得到根控制器的irq编号,然后进入该irq编号对应的irq_desc.handle_irq回调,该回调我们不能使用流控层定义好的几个流控函数,而是要自己实现一个函数,该函数负责从子控制器中获得irq的中断源,并计算出对应新的irq编号,然后调用新irq所对应的irq_desc.handle_irq回调,这个回调使用流控层的标准实现。

irq_set_chained_handler() 该API用于设置根控制器与子控制器相连的irq所对应的irq_desc.handle_irq回调函数,并且设置IRQ_NOPROBE和IRQ_NOTHREAD以及IRQ_NOREQUEST标志,这几个标志保证驱动程序不会错误地申请该irq,因为该irq已经被作为级联irq使用。

irq_set_chip_and_handler() 该API同时设置irq_desc中的handle_irq回调和irq_chip指针。

以下例子代码位于:/arch/arm/plat-s5p/irq-eint.c:


点击(此处)折叠或打开

  1. int __init s5p_init_irq_eint(void)
  2. {
  3. int irq;

  4. for (irq= IRQ_EINT(0); irq<= IRQ_EINT(15); irq++)
  5. irq_set_chip(irq,&s5p_irq_vic_eint);

  6. for (irq= IRQ_EINT(16); irq<= IRQ_EINT(31); irq++){
  7. irq_set_chip_and_handler(irq,&s5p_irq_eint, handle_level_irq);
  8. set_irq_flags(irq, IRQF_VALID);
  9. }

  10. irq_set_chained_handler(IRQ_EINT16_31, s5p_irq_demux_eint16_31);
  11. return 0;
  12. }


该SOC芯片的外部中断:IRQ_EINT(0)到IRQ_EINT(15),每个引脚对应一个根控制器的irq中断线,它们是正常的irq,无需级联。IRQ_EINT(16)到IRQ_EINT(31)经过子控制器汇集后,统一连接到根控制器编号为IRQ_EINT16_31这个中断线上。可以看到,子控制器对应的irq_chip是s5p_irq_eint,子控制器的irq默认设置为电平中断的流控处理函数handle_level_irq,它们通过API:irq_set_chained_handler进行设置。如果根控制器有128个中断线,IRQ_EINT0--IRQ_EINT15通常占据128内的某段连续范围,这取决于实际的物理连接。IRQ_EINT16_31因为也属于跟控制器,所以它的值也会位于128以内,但是IRQ_EINT16--IRQ_EINT31通常会在128以外的某段范围,这时,代表irq数量的常量NR_IRQS,必须考虑这种情况,定义出超过128的某个足够的数值。级联的实现主要依靠编号为IRQ_EINT16_31的流控处理程序:s5p_irq_demux_eint16_31,它的最终实现类似于以下代码:

点击(此处)折叠或打开

  1. static inline void s5p_irq_demux_eint(unsignedint start)
  2. {
  3. u32 status = __raw_readl(S5P_EINT_PEND(EINT_REG_NR(start)));
  4. u32 mask = __raw_readl(S5P_EINT_MASK(EINT_REG_NR(start)));
  5. unsigned int irq;

  6. status &=~mask;
  7. status &= 0xff;

  8. while (status){
  9. irq = fls(status)- 1;
  10. generic_handle_irq(irq + start);
  11. status &=~(1 << irq);
  12. }
  13. }


在获得新的irq编号后,它的最关键的一句是调用了通用中断逻辑层的API:generic_handle_irq,这时它才真正地把中断控制权传递到中断流控层中来。

Linux中断(interrupt)子系统之三:中断流控处理层2012-07-20 13:20:40

分类: LINUX

1. 中断流控层简介

早期的内核版本中,几乎所有的中断都是由__do_IRQ函数进行处理,但是,因为各种中断请求的电气特性会有所不同,又或者中断控制器的特性也不同,这会导致以下这些处理也会有所不同:

  • 何时对中断控制器发出ack回应;
  • mask_irq和unmask_irq的处理;
  • 中断控制器是否需要eoi回应?
  • 何时打开cpu的本地irq中断?以便允许irq的嵌套;
  • 中断数据结构的同步和保护;
/*****************************************************************************************************/
声明:本博内容均由http://blog.csdn.net/droidphone原创,转载请注明出处,谢谢!
/*****************************************************************************************************/
为此,通用中断子系统把几种常用的流控类型进行了抽象,并为它们实现了相应的标准函数,我们只要选择相应的函数,赋值给irq所对应的irq_desc结构的handle_irq字段中即可。这些标准的回调函数都是irq_flow_handler_t类型:

点击(此处)折叠或打开

  1. typedef void (*irq_flow_handler_t)(unsignedint irq,
  2. struct irq_desc *desc);

目前的通用中断子系统实现了以下这些标准流控回调函数,这些函数都定义在:kernel/irq/chip.c中,

  • handle_simple_irq 用于简易流控处理;
  • handle_level_irq 用于电平触发中断的流控处理;
  • handle_edge_irq 用于边沿触发中断的流控处理;
  • handle_fasteoi_irq 用于需要响应eoi的中断控制器;
  • handle_percpu_irq 用于只在单一cpu响应的中断;
  • handle_nested_irq 用于处理使用线程的嵌套中断;

驱动程序和板级代码可以通过以下几个API设置irq的流控函数:

  • irq_set_handler();
  • irq_set_chip_and_handler();
  • irq_set_chip_and_handler_name();

以下这个序列图展示了整个通用中断子系统的中断响应过程,flow_handle一栏就是中断流控层的生命周期:

图1.1 通用中断子系统的中断响应过程

2. handle_simple_irq

该函数没有实现任何实质性的流控操作,在把irq_desc结构锁住后,直接调用handle_irq_event处理irq_desc中的action链表,它通常用于多路复用(类似于中断控制器级联)中的子中断,由父中断的流控回调中调用。或者用于无需进行硬件控制的中断中。以下是它的经过简化的代码:

点击(此处)折叠或打开

  1. void
  2. handle_simple_irq(unsigned int irq, struct irq_desc *desc)
  3. {
  4. raw_spin_lock(&desc->lock);
  5. ......
  6. handle_irq_event(desc);

  7. out_unlock:
  8. raw_spin_unlock(&desc->lock);
  9. }


3. handle_level_irq
该函数用于处理电平中断的流控操作。电平中断的特点是,只要设备的中断请求引脚(中断线)保持在预设的触发电平,中断就会一直被请求,所以,为了避免同一中断被重复响应,必须在处理中断前先把mask irq,然后ack irq,以便复位设备的中断请求引脚,响应完成后再unmask irq。实际的情况稍稍复杂一点,在mask和ack之后,还要判断IRQ_INPROGRESS标志位,如果该标志已经置位,则直接退出,不再做实质性的处理,IRQ_INPROGRESS标志在handle_irq_event的开始设置,在handle_irq_event结束时清除,如果监测到IRQ_INPROGRESS被置位,表明该irq正在被另一个CPU处理中,所以直接退出,对电平中断来说是正确的处理方法。但是我觉得在ARM系统中,这种情况根本就不会发生,因为在没有进入handle_level_irq之前,中断控制器没有收到ack通知,它不会向第二个CPU再次发出中断请求,而当程序进入handle_level_irq之后,第一个动作就是mask irq,然后ack irq(通常是联合起来的:mask_ack_irq),这时候就算设备再次发出中断请求,也是在handle_irq_event结束,unmask irq之后,这时IRQ_INPROGRESS标志已经被清除。我不知道其他像X86之类的体系是否有不同的行为,有知道的朋友请告知我一下。以下是handle_level_irq经过简化之后的代码:

点击(此处)折叠或打开

  1. void
  2. handle_level_irq(unsigned int irq, struct irq_desc *desc)
  3. {
  4. raw_spin_lock(&desc->lock);
  5. mask_ack_irq(desc);

  6. if (unlikely(irqd_irq_inprogress(&desc->irq_data)))
  7. goto out_unlock;
  8. ......

  9. if (unlikely(!desc->action|| irqd_irq_disabled(&desc->irq_data)))
  10. goto out_unlock;

  11. handle_irq_event(desc);

  12. if (!irqd_irq_disabled(&desc->irq_data)&& !(desc->istate& IRQS_ONESHOT))
  13. unmask_irq(desc);
  14. out_unlock:
  15. raw_spin_unlock(&desc->lock);
  16. }

虽然handle_level_irq对电平中断的流控进行了必要的处理,因为电平中断的特性:只要没有ack irq,中断线会一直有效,所以我们不会错过某次中断请求,但是驱动程序的开发人员如果对该过程理解不透彻,特别容易发生某次中断被多次处理的情况。特别是使用了中断线程(action->thread_fn)来响应中断的时候:通常mask_ack_irq只会清除中断控制器的pending状态,很多慢速设备(例如通过i2c或spi控制的设备)需要在中断线程中清除中断线的pending状态,但是未等到中断线程被调度执行的时候,handle_level_irq早就返回了,这时已经执行过unmask_irq,设备的中断线pending处于有效状态,中断控制器会再次发出中断请求,结果是设备的一次中断请求,产生了两次中断响应。要避免这种情况,最好的办法就是不要单独使用中断线程处理中断,而是要实现request_threaded_irq()的第二个参数irq_handler_t:handler,在handle回调中使用disable_irq()关闭该irq,然后在退出中断线程回调前再enable_irq()。假设action->handler没有屏蔽irq,以下这幅图展示了电平中断期间IRQ_PROGRESS标志、本地中断状态和触发其他CPU的状态:
图3.1 电平触发中断状态
4. handle_edge_irq
该函数用于处理边沿触发中断的流控操作。边沿触发中断的特点是,只有设备的中断请求引脚(中断线)的电平发生跳变时(由高变低或者有低变高),才会发出中断请求,因为跳变是一瞬间,而且不会像电平中断能保持住电平,所以处理不当就特别容易漏掉一次中断请求,为了避免这种情况,屏蔽中断的时间必须越短越好。内核的开发者们显然意识到这一点,在正是处理中断前,判断IRQ_PROGRESS标志没有被设置的情况下,只是ack irq,并没有mask irq,以便复位设备的中断请求引脚,在这之后的中断处理期间,另外的cpu可以再次响应同一个irq请求,如果IRQ_PROGRESS已经置位,表明另一个CPU正在处理该irq的上一次请求,这种情况下,他只是简单地设置IRQS_PENDING标志,然后mask_ack_irq后退出,中断请求交由原来的CPU继续处理。因为是mask_ack_irq,所以系统实际上只允许挂起一次中断。

点击(此处)折叠或打开

  1. if (unlikely(irqd_irq_disabled(&desc->irq_data)||
  2. irqd_irq_inprogress(&desc->irq_data)|| !desc->action)){
  3. if (!irq_check_poll(desc)){
  4. desc->istate|= IRQS_PENDING;
  5. mask_ack_irq(desc);
  6. goto out_unlock;
  7. }
  8. }

  9. desc->irq_data.chip->irq_ack(&desc->irq_data);

从上面的分析可以知道,处理中断期间,另一次请求可能由另一个cpu响应后挂起,所以在处理完本次请求后还要判断IRQS_PENDING标志,如果被置位,当前cpu要接着处理被另一个cpu“委托”的请求。内核在这里设置了一个循环来处理这种情况,直到IRQS_PENDING标志无效为止,而且因为另一个cpu在响应并挂起irq时,会mask irq,所以在循环中要再次unmask irq,以便另一个cpu可以再次响应并挂起irq:

点击(此处)折叠或打开

  1. do {
  2. ......
  3. if (unlikely(desc->istate& IRQS_PENDING)){
  4. if (!irqd_irq_disabled(&desc->irq_data)&&
  5. irqd_irq_masked(&desc->irq_data))
  6. unmask_irq(desc);
  7. }

  8. handle_irq_event(desc);

  9. } while((desc->istate& IRQS_PENDING)&&
  10. !irqd_irq_disabled(&desc->irq_data));

IRQS_PENDING标志会在handle_irq_event中清除。
图4.1 边沿触发中断状态
由图4.1也可以看出,在处理软件中断(softirq)期间,此时仍然处于中断上下文中,但是cpu的本地中断是处于打开状态的,这表明此时嵌套中断允许发生,不过这不要紧,因为重要的处理已经完成,被嵌套的也只是软件中断部分而已。这个也就是内核区分top和bottom两个部分的初衷吧。
5. handle_fasteoi_irq
现代的中断控制器通常会在硬件上实现了中断流控功能,例如ARM体系中的GIC通用中断控制器。对于这种中断控制器,CPU只需要在每次处理完中断后发出一个end of interrupt(eoi),我们无需关注何时mask,何时unmask。不过虽然想着很完美,事情总有特殊的时候,所以内核还是给了我们插手的机会,它利用irq_desc结构中的preflow_handler字段,在正式处理中断前会通过preflow_handler函数调用该回调。

点击(此处)折叠或打开

  1. void
  2. handle_fasteoi_irq(unsigned int irq, struct irq_desc *desc)
  3. {
  4. raw_spin_lock(&desc->lock);

  5. if (unlikely(irqd_irq_inprogress(&desc->irq_data)))
  6. if (!irq_check_poll(desc))
  7. goto out;
  8. ......
  9. if (unlikely(!desc->action|| irqd_irq_disabled(&desc->irq_data))){
  10. desc->istate|= IRQS_PENDING;
  11. mask_irq(desc);
  12. goto out;
  13. }

  14. if (desc->istate& IRQS_ONESHOT)
  15. mask_irq(desc);

  16. preflow_handler(desc);
  17. handle_irq_event(desc);

  18. out_eoi:
  19. desc->irq_data.chip->irq_eoi(&desc->irq_data);
  20. out_unlock:
  21. raw_spin_unlock(&desc->lock);
  22. return;
  23. ......
  24. }

此外,内核还提供了另外一个eoi版的函数:handle_edge_eoi_irq,它的处理类似于handle_edge_irq,只是无需实现mask和unmask的逻辑。
6. handle_percpu_irq
该函数用于smp系统,当某个irq只在一个cpu上处理时,我们可以无需用自旋锁对数据进行保护,也无需处理cpu之间的中断嵌套重入,所以函数很简单:

点击(此处)折叠或打开

  1. void
  2. handle_percpu_irq(unsigned int irq, struct irq_desc *desc)
  3. {
  4. struct irq_chip *chip = irq_desc_get_chip(desc);

  5. kstat_incr_irqs_this_cpu(irq, desc);

  6. if (chip->irq_ack)
  7. chip->irq_ack(&desc->irq_data);

  8. handle_irq_event_percpu(desc, desc->action);

  9. if (chip->irq_eoi)
  10. chip->irq_eoi(&desc->irq_data);
  11. }

7. handle_nested_irq

该函数用于实现其中一种中断共享机制,当多个中断共享某一根中断线时,我们可以把这个中断线作为父中断,共享该中断的各个设备作为子中断,在父中断的中断线程中决定和分发响应哪个设备的请求,在得出真正发出请求的子设备后,调用handle_nested_irq来响应中断。所以,该函数是在进程上下文执行的,我们也无需扫描和执行irq_desc结构中的action链表。父中断在初始化时必须通过irq_set_nested_thread函数明确告知中断子系统:这些子中断属于线程嵌套中断类型,这样驱动程序在申请这些子中断时,内核不会为它们建立自己的中断线程,所有的子中断共享父中断的中断线程。

点击(此处)折叠或打开

  1. void handle_nested_irq(unsignedint irq)
  2. {
  3. ......
  4. might_sleep();

  5. raw_spin_lock_irq(&desc->lock);
  6. ......
  7. action = desc->action;
  8. if (unlikely(!action|| irqd_irq_disabled(&desc->irq_data)))
  9. goto out_unlock;

  10. irqd_set(&desc->irq_data, IRQD_IRQ_INPROGRESS);
  11. raw_spin_unlock_irq(&desc->lock);

  12. action_ret = action->thread_fn(action->irq, action->dev_id);

  13. raw_spin_lock_irq(&desc->lock);
  14. irqd_clear(&desc->irq_data, IRQD_IRQ_INPROGRESS);

  15. out_unlock:
  16. raw_spin_unlock_irq(&desc->lock);
  17. }


0 0
原创粉丝点击