Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


SSL oxu210hp-hcd.c   Interaktion und
PortierbarkeitC

 
// SPDX-License-Identifier: GPL-2.0+
/*
 * Copyright (c) 2008 Rodolfo Giometti <giometti@linux.it>
 * Copyright (c) 2008 Eurotech S.p.A. <info@eurtech.it>
 *
 * This code is *strongly* based on EHCI-HCD code by David Brownell since
 * the chip is a quasi-EHCI compatible.
 */


(){
#include <linux/pci.h>
#include <linux/dmapool.h>
#include <linux/kernel.h>
#include <linux/delay.h>
#include <linux/ioport.h>
#include <linux/sched.h>
#include <linux/slab.h>
#include <linux/string_choices.h>
#include <linux/errno.h>
#include <linux/timer.h>
#include <linux/list.h>
#include <linux/interrupt.h>
#include <linux/usb.h>
#include <linux/usb/hcd.h>
#include <linux/moduleparam.h>
#include <linux/dma-mapping.h>
#include <linux/io.h>
#include <linux/iopoll.h>

#include <asm/irq.h>
#include <linux/unaligned.h>

#include <linux/irq.h>
#include <linux/platform_device.h>

#define DRIVER_VERSION "0.0.50"

#define OXU_DEVICEID   witch(_NEXT_TYPEhw_p
 #define OXU_REV_MASK  0xffff0000  Q_TYPE_QH
 #define OXU_REV_SHIFT  16 defaultjava.lang.StringIndexOutOfBoundsException: Index 10 out of bounds for length 10
 #define  /* ... or C-mask
 #define OXU_BO_SHIFT  8
OXU_BO_MASK0 <OXU_BO_SHIFT
 #define OXU_MAJ_REV_SHIFT 4
 #define OXU_MAJ_REV_MASK (0xf usecs>>c_usecs
 #define OXU_MIN_REV_SHIFT 0
 define (xf<OXU_MIN_REV_SHIFT
#define OXU_HOSTIFCONFIG  0x04
#define OXU_SOFTRESET   0x08
#define   (1< 0java.lang.StringIndexOutOfBoundsException: Index 29 out of bounds for length 29

#define OXU_PIOBURSTREADCTRL 00C

#define OXU_CHIPIRQSTATUS  0x10
#define OXU_CHIPIRQEN_SET  0x14
#define OXU_CHIPIRQEN_CLR  0x18
 #define OXU_USBSPHLPWUI  0x00000080
 #define OXU_USBOTGLPWUI  0x00000040
 #define OXU_USBSPHI  0x00000002
 #define OXU_USBOTGI  0x00000001

#define OXU_CLKCTRL_SET   0x1C
#defineOXU_SYSCLKENx00000008
 #define OXU_USBSPHCLKEN  0x00000002
 #define OXU_USBOTGCLKEN  0x00000001

#define OXU_ASO    0x68
 #define OXU_SPHPOENifdefDEBUG
 define 0x00000800
 #define OXU_ASO_OP  (1 << 10)
 #define OXU_COMPARATOR  0x000004000

#efine    x1A8
 #define OXU_VBPS  0x00000020
 #define OXU_ES_LITTLE  0x00000000
 #define OXU_CM_HOST_ONLY 0x00000003

/*
 * Proper EHCI structs & defines
 */


/* Magic numbers that can affect system performance */*8  , usecs
java.lang.StringIndexOutOfBoundsException: Index 6 out of bounds for length 6
#define EHCI_TUNE_RL_HS  4 /* nak throttle; see 4.9 */
#define EHCI_TUNE_RL_TT  0
#define EHCI_TUNE_MULT_HSjava.lang.StringIndexOutOfBoundsException: Index 0 out of bounds for length 0
EHCI_TUNE_MULT_TT
#define EHCI_TUNE_FLS  2 /* (small) 256 frame schedule */

struct

/* EHCI register interface, corresponds to EHCI Revision 0.95 specification */

/* Section 2.2 Host Controller Capability Registers */
struct ehci_caps {
 /* these fields are specified as 8 and 16 bit registers, ;
 * but some hosts can't perform 8 or 16 bit PCI accesses.
 */

 u32  hc_capbase;
#define  default
#define HC_VERSION(p)  (((p)>>16)&0xffff) /* bits 31:16 */
 u32 union  * = &oxu-[frame
#define HCS_DEBUG_PORT(p /* make sure ehci_work scans these */
define) (&1<6/java.lang.StringIndexOutOfBoundsException: Range [73, 72) out of bounds for length 72
#define HCS_N_CC(p)java.lang.StringIndexOutOfBoundsException: Index 0 out of bounds for length 0
#define HCS_N_PCC
#define HCS_PORTROUTED()java.lang.StringIndexOutOfBoundsException: Index 1 out of bounds for length 1
#define writel(cmd, &oxu-> java.lang.StringIndexOutOfBoundsException: Index 4 out of bounds for length 4
definejava.lang.StringIndexOutOfBoundsException: Index 0 out of bounds for length 0

u32hcc_paramsoxu- =1
#define HCC_EXT_CAPS(p)  (((p)>>8)&0  ( = )
#define HCC_ISOC_CACHE(p)         =1
#define HCC_ISOC_THRES(p)java.lang.StringIndexOutOfBoundsException: Index 0 out of bounds for length 0
:can on qh*
#define HCC_PGM_FRAMELISTLEN(p) ((p)&(1 << 1))  /* true: periodic_size changes*/
#define HCC_64BIT_ADDR(p)       
 u8  portroute[ periodic_unlinkoxui,);
} __packed


/* Section 2.3 Host Controller Operational Registers */
struct
 /* USBCMD: offset 0x00 */
 * sparse tree(oxu>self - >
/* 23:16 is r/w intr rate, in microframes; default "8" == 1/msec */
define<)/
#define CMD_PARK_CNT(c) (((c)>> * no FSTN support (yet; oxu 0.96+)
#define /
#define CMD_IAAD (1<<6)  /* "doorbell" interrupt async advance */
#static
#define CMD_PSE  (1<<4)  /* periodic schedule enable */
/* 3:2 is periodic frame list size */
#defineCMD_RESET1<1) /* reset i
#define CMD_RUN  (1<<0)  /* start/stop HC */

/
 u32 ;
#define STS_ASS  (1 " qh%04/p start% %d \,
#define STS_PSS  ( >,
#defineSTS_RECL11 /
#define STS_HALT (1<<12)  /* Not running (any reason) */
/* some bits reserved */
 /* these STS_* flags are also intr_enable bits (USBINTR) */
#define STS_IAA   " qhd-0x% %d [%/%d us]n"java.lang.StringIndexOutOfBoundsException: Index 44 out of bounds for length 44
#define STS_FATAL (1<<4)  /* such as some PCI access errors */
#define STS_FLR  (1<<3)  /* frame list rolled over */ qh qh-, qh->, qh-c_usecs;
#define STS_PCD  (1<<2)  /* port change detect */
#define STS_ERR  (1<<1)  /* "error" completion (overflow, ...) */
#define STS_INT  (1<<0  /* "normal" completion (short, ...) */

#define INTR_MASK (STS_IAA | STS_FATAL | STS_PCD | STS_ERRif (period=0

 /* USBINTR: offset 0x08 */
 u32  intr_enable;

 /* FRINDEX: offset 0x0C */
 u32  frame_index; /* current microframe number */
 /* CTRLDSSEGMENT: offset 0x10 */ fori  qh->starti<oxu-; i + ) {
 u32  segment; /* address bits 63:32 if needed */
/
 u32  frame_list; /* points to periodic list */
 /* ASYNCLISTADDR: offset 0x18 */
 u32  async_next; _le32hw_p  &>periodic;

 u32  reserved[9];

 /* CONFIGFLAG: offset 0x40 */
 u32 ehci_shadow =*;
#define FLAG_CF  (1<<0)  /* true: we'll support "high speed" */

 /* PORTSC: offset 0x44 */
 u32  port_status[]; /* up to N_PORTS */
/* 31:23 reserved */
#define PORT_WKOC_E   /* skip the iso nodes at list head */
#define PORT_WKDISC_E (1<<21)  /* wake on disconnect (enable) */
#define PORT_WKCONN_E (1<<20)  /* wake on connect (enable) */
/* 19:16 for port testing */
#define PORT_LED_OFF (0<<14)
definePORT_LED_AMBER(<)
#define PORT_LED_GREEN (2<<14)
#define PORT_LED_MASK (3<<14)
#define PORT_OWNER (1<<13)  /* true: companion hc owns this port */
#define  (<2 java.lang.StringIndexOutOfBoundsException: Index 59 out of bounds for length 59
#define   prev =periodic_next_shadow,type
/* 11:10 for detecting lowspeed devices (reset vs release ownership) */
/
#define PORT_RESET (1<<8)  /* reset port */  =prev
 }
#define PORT_RESUME (1<<6)  /* resume it */
#define PORT_OCC/
#define ()/* overcurrent *
#define PORT_PEC (1<<3)  /* port enable change */
#define PORT_PE   * enables sharing interior tree nodes
#define PORT_CSC (1<   
#define PORT_CONNECT (1<<0)  /* device connected */
PORT_RWC_BITS(PORT_CSC  PORT_PEC PORT_OCCjava.lang.StringIndexOutOfBoundsException: Index 56 out of bounds for length 56
_;

#define QTD_NEXT(dma) cpu_to_le32((u32)dma)

/*
 * EHCI Specification 0.95 Section 3.5
 * QTD: describe data transfer components (buffer, direction, ...)
 * See Fig 3-6 "Queue Element Transfer Descriptor Block Diagram".
 *
 * These are associated only with "QH" (Queue Head) structures,
 * used with control, bulk, and interrupt transfers.
 */

struct ehci_qtd {
 /* first part defined by EHCI spec */ prev
 __le32   hw_next;  /* see EHCI 3.5.1 */
 __le32   hw_alt_next;  /* see EHCI 3.5.2 */
 __le32   hw_token  /* see EHCI 3.5.3 */ see 3.53/
#define QTD_TOGGLE (1 << 31) /* data toggle */
#define QTD_LENGTH(tok) (((tok)>>16) & 0x7fff)
#define QTD_IOC  (1 << 15) /* interrupt on complete */
defineQTD_CERR() ((()>>0  x3
#define QTD_PID(tok) (((tok)>>8) & 0x3)
define (1<< )/java.lang.StringIndexOutOfBoundsException: Index 57 out of bounds for length 57
#define QTD_STS_HALT (1 << 6) /* halted on error */
#define QTD_STS_DBE ( ()
#define QTD_STS_BABBLE (1 << 4) /* device was babbling (qtd halted) */
QTD_STS_XACT1< 3) /* device gave illegal response */
#define QTD_STS_MMF (1 << 2) /* incomplete split transaction */
#define QTD_STS_STS (1 <<   }
#define QTD_STS_PING (1 << 0) /* issue PING? */
 __le32   hw_buf[5];  /* see EHCI 3.5.4 */
 }

 /* the rest is HCD-private */
 dma_addr_t  qtd_dma;  /* qtd address */
 structlist_head qtd_list /
 struct urb  *urb;   /* qtd's urb */
 size_t   length

 u32   qtd_buffer_len;
 void   *buffer;
 dma_addr_t  buffer_dma;
 void   *transfer_buffer;
 void   *transfer_dma;
}

/* mask NakCnt+T in qh->hw_alt_next */
QTD_MASK (0x1f

#define IS_SHORT_READ(token) (QTD_LENGTH (oxu->.bandwidth_allocated+ >period

/* Type tag from {qh, itd, sitd, fstn}->hw_next */
 qh-usecs*)java.lang.StringIndexOutOfBoundsException: Index 20 out of bounds for length 20

/* values for that type tag */
#define Q_TYPE_QH cpu_to_le32 (1 << 1)

/* next async queue entry, or pointer to interrupt/periodic QH */
#define  eturnoxu

/* for periodic/async schedules and qtd lists, mark end of list */


/*
 * Entries in periodic shadow table are pointers to one of four kinds
 * of data structure.  That's dictated by the hardware; a type tag is
 * encoded in the low bits of the hardware's periodic schedule.  Use
 * Q_NEXT_TYPE to get the tag.
 *
 * For entries in the async schedule, the type tag always says "qh".
 */

union void(structoxu_hcd *xustruct ehci_qhqh
 struct ehci_qh  *qh;  /* Q_TYPE_QH */
 __le32   *hw_next; /* (all types) */
 void*tr
};

/*
 * EHCI Specification 0.95 Section 3.6
 * QH: describes control/bulk/interrupt endpoints
 * See Fig 3-7 "Queue Head Structure Layout".
 *
 * These appear in both the async and (for interrupt) periodic schedules.
 */


struct ehci_qh {
 /* first part defined by EHCI spec */
 _  *   (and overlay token SplitXstate is false?)
 __le32riod == 0)
#define QH_HEAD  0x00008000
 __le32
#define QH_SMASK 0x000000ff
#define   i >;  >;  =)
#define QH_HUBADDR 0x007f0000
#defineQH_HUBPORTx3f800000
#define QH_MULT  0xc0000000
 _java.lang.StringIndexOutOfBoundsException: Index 0 out of bounds for length 0

 /* qtd overlay (hardware parts of a struct ehci_qtd) */
le32
 __le32   hw_alt_nextqh-,
 __le32   hw_token;
 __le32   hw_buf[5];
 __le32   hw_buf_hi[5];

 /* the rest is HCD-private */
 dma_addr_t  qh_dma;  /* address of qh */
 union ehci_shadow qh_next; /* ptr to qh; or periodic */
 struct list_head qtd_list; /* sw qtd list */
 struct ehci_qtd  *dummy;
 struct ehci_qh  *reclaim; /* next to reclaim */

 struct oxu_hcd  *oxu;
 struct kref  kref;
 unsigned int  stamp;

 u8   qh_state;
#define QH_STATE_LINKED  1  /* HC sees this */
#define QH_STATE_UNLINK  2  /* HC may still see this */
#define QH_STATE_IDLE  3  /* HC doesn't see this */
#define QH_STATE_UNLINK_WAIT 4  /* LINKED and on reclaim q */
#define QH_STATE_COMPLETING 5  /* don't touch token.HALT */

 /* periodic schedule info */
 u8   usecs;  /* intr bandwidth */
 u8   gap_uf;  /* uframes split/csplit gap */
 u8   c_usecs; /* ... split completion bw */
 u16   tt_usecs; /* tt downstream bandwidth */
 unsigned short  period;  /* polling interval */
 unsigned short  start;  /* where polling starts */
#define NO_FRAME ((unsigned short)~0)   /* pick new start */
 struct usb_device *dev;  /* access to TT */
} __aligned(32);

/*
 * Proper OXU210HP structs
 */


#define OXU_OTG_CORE_OFFSET 0x00400
#define OXU_OTG_CAP_OFFSET (OXU_OTG_CORE_OFFSET + 0x100)
#define OXU_SPH_CORE_OFFSET 0x00800
#define OXU_SPH_CAP_OFFSET (OXU_SPH_CORE_OFFSET + 0x100)

#define OXU_OTG_MEM  0xE000
#define OXU_SPH_MEM  0x16000

/* Only how many elements & element structure are specifies here. */
/* 2 host controllers are enabled - total size <= 28 kbytes */
#define DEFAULT_I_TDPS  1024
#define QHEAD_NUM  16
#define QTD_NUM   32
#define SITD_NUM  8
#define MURB_NUM  8

#define BUFFER_NUM  8
#define BUFFER_SIZE  512

struct oxu_info {
 struct usb_hcd *hcd[2];
};

struct oxu_buf {
 u8   buffer[BUFFER_SIZE];
} __aligned(BUFFER_SIZE);

struct oxu_onchip_mem {
 struct oxu_buf  db_pool[BUFFER_NUM];

 u32   frame_list[DEFAULT_I_TDPS];
 struct ehci_qh  qh_pool[QHEAD_NUM];
 struct ehci_qtd  qtd_pool[QTD_NUM];
} __aligned(4 << 10);

#define EHCI_MAX_ROOT_PORTS 15  /* see HCS_N_PORTS */

struct oxu_murb {
 struct urb  urb;
 struct urb  *main;
 u8   last;
};

struct oxu_hcd {    /* one per controller */
 unsigned int  is_otg:1;

 u8   qh_used[QHEAD_NUM];
 u8   qtd_used[QTD_NUM];
 u8   db_used[BUFFER_NUM];
 u8   murb_used[MURB_NUM];

 struct oxu_onchip_mem __iomem *mem;
 spinlock_t  mem_lock;

 struct timer_list urb_timer;

 struct ehci_caps __iomem *caps;
 struct ehci_regs __iomem *regs;

 u32   hcs_params; /* cached register copy */
 spinlock_t  lock;

 /* async schedule support */
 struct ehci_qh  *async;
 struct ehci_qh  *reclaim;
 unsigned int  reclaim_ready:1;
 unsigned int  scanning:1;

 /* periodic schedule support */
 unsigned int  periodic_size;
 __le32   *periodic; /* hw periodic table */
 dma_addr_t  periodic_dma;
 unsigned int  i_thresh; /* uframes HC might cache */

 union ehci_shadow *pshadow; /* mirror hw periodic table */
 int   next_uframe; /* scan periodic, start here */
 unsigned int  periodic_sched; /* periodic activity count */

 /* per root hub port */
 unsigned long  reset_done[EHCI_MAX_ROOT_PORTS];
 /* bit vectors (one bit per port) */
 unsigned long  bus_suspended; /* which ports were
 * already suspended at the
 * start of a bus suspend
 */

 unsigned long  companion_ports;/* which ports are dedicated
 * to the companion controller
 */


 struct timer_list watchdog;
 unsigned long  actions;
 unsigned int  stamp;
 unsigned long  next_statechange;
 u32   command;

 /* SILICON QUIRKS */
 struct list_head urb_list; /* this is the head to urb
 * queue that didn't get enough
 * resources
 */

 struct oxu_murb  *murb_pool; /* murb per split big urb */
 unsigned int  urb_len;

 u8   sbrn;  /* packed release number */
};

#define EHCI_IAA_JIFFIES (HZ/100) /* arbitrary; ~10 msec */
#define EHCI_IO_JIFFIES  (HZ/10)  /* io watchdog > irq_thresh */
#define EHCI_ASYNC_JIFFIES      (HZ/20)  /* async idle timeout */
#define EHCI_SHRINK_JIFFIES     (HZ/200) /* async qh unlink delay */

enum ehci_timer_action {
 TIMER_IO_WATCHDOG,
 TIMER_IAA_WATCHDOG,
 TIMER_ASYNC_SHRINK,
 TIMER_ASYNC_OFF,
};

/*
 * Main defines
 */


#define oxu_dbg(oxu, fmt, args...) \
  dev_dbg(oxu_to_hcd(oxu)->self.controller , fmt , ## args)
#define oxu_err(oxu, fmt, args...) \
  dev_err(oxu_to_hcd(oxu)->self.controller , fmt , ## args)
#define oxu_info(oxu, fmt, args...) \
  dev_info(oxu_to_hcd(oxu)->self.controller , fmt , ## args)

#ifdef CONFIG_DYNAMIC_DEBUG
#define DEBUG
#endif

static inline struct usb_hcd *oxu_to_hcd(struct oxu_hcd *oxu)
{
 return container_of((void *) oxu, struct usb_hcd, hcd_priv);
}

static inline struct oxu_hcd *hcd_to_oxu(struct usb_hcd *hcd)
{
 return (struct oxu_hcd *) (hcd->hcd_priv);
}

/*
 * Debug stuff
 */


#undef OXU_URB_TRACE
#undef OXU_VERBOSE_DEBUG

#ifdef OXU_VERBOSE_DEBUG
#define oxu_vdbg   oxu_dbg
#else
#define oxu_vdbg(oxu, fmt, args...) /* Nop */
#endif

#ifdef DEBUG

static int __attribute__((__unused__))
dbg_status_buf(char *buf, unsigned len, const char *label, u32 status)
{
 return scnprintf(buf, len, "%s%sstatus %04x%s%s%s%s%s%s%s%s%s%s",
  label, label[0] ? " " : "", status,
  (status & STS_ASS) ? " Async" : "",
  (status & STS_PSS) ? " Periodic" : "",
  (status & STS_RECL) ? " Recl" : "",
  (status & STS_HALT) ? " Halt" : "",
  (status & STS_IAA) ? " IAA" : "",
  (status & STS_FATAL) ? " FATAL" : "",
  (status & STS_FLR) ? " FLR" : "",
  (status & STS_PCD) ? " PCD" : "",
  (status & STS_ERR) ? " ERR" : "",
  (status & STS_INT) ? " INT" : ""
  );
}

static int __attribute__((__unused__))
dbg_intr_buf(char *buf, unsigned len, const char *label, u32 enable)
{
 return scnprintf(buf, len, "%s%sintrenable %02x%s%s%s%s%s%s",
  label, label[0] ? " " : "", enable,
  (enable & STS_IAA) ? " IAA" : "",
  (enable & STS_FATAL) ? " FATAL" : "",
  (enable & STS_FLR) ? " FLR" : "",
  (enable & STS_PCD) ? " PCD" : "",
  (enable & STS_ERR) ? " ERR" : "",
  (enable & STS_INT) ? " INT" : ""
  );
}

static const char *const fls_strings[] =
    { "1024""512""256""??" };

static int dbg_command_buf(char *buf, unsigned len,
    const char *label, u32 command)
{
 return scnprintf(buf, len,
  "%s%scommand %06x %s=%d ithresh=%d%s%s%s%s period=%s%s %s",
  label, label[0] ? " " : "", command,
  (command & CMD_PARK) ? "park" : "(park)",
  CMD_PARK_CNT(command),
  (command >> 16) & 0x3f,
  (command & CMD_LRESET) ? " LReset" : "",
  (command & CMD_IAAD) ? " IAAD" : "",
  (command & CMD_ASE) ? " Async" : "",
  (command & CMD_PSE) ? " Periodic" : "",
  fls_strings[(command >> 2) & 0x3],
  (command & CMD_RESET) ? " Reset" : "",
  (command & CMD_RUN) ? "RUN" : "HALT"
  );
}

static int dbg_port_buf(char *buf, unsigned len, const char *label,
    int port, u32 status)
{
 char *sig;

 /* signaling state */
 switch (status & (3 << 10)) {
 case 0 << 10:
  sig = "se0";
  break;
 case 1 << 10:
  sig = "k"/* low speed */
  break;
 case 2 << 10:
  sig = "j";
  break;
 default:
  sig = "?";
  break;
 }

 return scnprintf(buf, len,
  "%s%sport %d status %06x%s%s sig=%s%s%s%s%s%s%s%s%s%s",
  label, label[0] ? " " : "", port, status,
  (status & PORT_POWER) ? " POWER" : "",
  (status & PORT_OWNER) ? " OWNER" : "",
  sig,
  (status & PORT_RESET) ? " RESET" : "",
  (status & PORT_SUSPEND) ? " SUSPEND" : "",
  (status & PORT_RESUME) ? " RESUME" : "",
  (status & PORT_OCC) ? " OCC" : "",
  (status & PORT_OC) ? " OC" : "",
  (status & PORT_PEC) ? " PEC" : "",
  (status & PORT_PE) ? " PE" : "",
  (status & PORT_CSC) ? " CSC" : "",
  (status & PORT_CONNECT) ? " CONNECT" : ""
     );
}

#else

static inline int __attribute__((__unused__))
dbg_status_buf(char *buf, unsigned len, const char *label, u32 status)
return 0; }

static inline int __attribute__((__unused__))
dbg_command_buf(char *buf, unsigned len, const char *label, u32 command)
return 0; }

static inline int __attribute__((__unused__))
dbg_intr_buf(char *buf, unsigned len, const char *label, u32 enable)
return 0; }

static inline int __attribute__((__unused__))
dbg_port_buf(char *buf, unsigned len, const char *label, int port, u32 status)
return 0; }

#endif /* DEBUG */

/* functions have the "wrong" filename when they're output... */
#define dbg_status(oxu, label, status) { \
 char _buf[80]; \
 dbg_status_buf(_buf, sizeof _buf, label, status); \
 oxu_dbg(oxu, "%s\n", _buf); \
}

#define dbg_cmd(oxu, label, command) { \
 char _buf[80]; \
 dbg_command_buf(_buf, sizeof _buf, label, command); \
 oxu_dbg(oxu, "%s\n", _buf); \
}

#define dbg_port(oxu, label, port, status) { \
 char _buf[80]; \
 dbg_port_buf(_buf, sizeof _buf, label, port, status); \
 oxu_dbg(oxu, "%s\n", _buf); \
}

/*
 * Module parameters
 */


/* Initial IRQ latency: faster than hw default */
static int log2_irq_thresh;   /* 0 to 6 */
module_param(log2_irq_thresh, int, S_IRUGO);
MODULE_PARM_DESC(log2_irq_thresh, "log2 IRQ latency, 1-64 microframes");

/* Initial park setting: slower than hw default */
static unsigned park;
module_param(park, uint, S_IRUGO);
MODULE_PARM_DESC(park, "park setting; 1-3 back-to-back async packets");

/* For flakey hardware, ignore overcurrent indicators */
static bool ignore_oc;
module_param(ignore_oc, bool, S_IRUGO);
MODULE_PARM_DESC(ignore_oc, "ignore bogus hardware overcurrent indications");


static void ehci_work(struct oxu_hcd *oxu);
static int oxu_hub_control(struct usb_hcd *hcd,
    u16 typeReq, u16 wValue, u16 wIndex,
    char *buf, u16 wLength);

/*
 * Local functions
 */


/* Low level read/write registers functions */
static inline u32 oxu_readl(void __iomem *base, u32 reg)
{
 return readl(base + reg);
}

static inline void oxu_writel(void __iomem *base, u32 reg, u32 val)
{
 writel(val, base + reg);
}

static inline void timer_action_done(struct oxu_hcd *oxu,
     enum ehci_timer_action action)
{
 clear_bit(action, &oxu->actions);
}

static inline void timer_action(struct oxu_hcd *oxu,
     enum ehci_timer_action action)
{
 if (!test_and_set_bit(action, &oxu->actions)) {
  unsigned long t;

  switch (action) {
  case TIMER_IAA_WATCHDOG:
   t = EHCI_IAA_JIFFIES;
   break;
  case TIMER_IO_WATCHDOG:
   t = EHCI_IO_JIFFIES;
   break;
  case TIMER_ASYNC_OFF:
   t = EHCI_ASYNC_JIFFIES;
   break;
  case TIMER_ASYNC_SHRINK:
  default:
   t = EHCI_SHRINK_JIFFIES;
   break;
  }
  t += jiffies;
  /* all timings except IAA watchdog can be overridden.
 * async queue SHRINK often precedes IAA.  while it's ready
 * to go OFF neither can matter, and afterwards the IO
 * watchdog stops unless there's still periodic traffic.
 */

  if (action != TIMER_IAA_WATCHDOG
    && t > oxu->watchdog.expires
    && timer_pending(&oxu->watchdog))
   return;
  mod_timer(&oxu->watchdog, t);
 }
}

/*
 * handshake - spin reading hc until handshake completes or fails
 * @ptr: address of hc register to be read
 * @mask: bits to look at in result of read
 * @done: value of those bits when handshake succeeds
 * @usec: timeout in microseconds
 *
 * Returns negative errno, or zero on success
 *
 * Success happens when the "mask" bits have the specified value (hardware
 * handshake done).  There are two failure modes:  "usec" have passed (major
 * hardware flakeout), or the register reads as all-ones (hardware removed).
 *
 * That last failure should_only happen in cases like physical cardbus eject
 * before driver shutdown. But it also seems to be caused by bugs in cardbus
 * bridge shutdown:  shutting down the bridge before the devices using it.
 */

static int handshake(struct oxu_hcd *oxu, void __iomem *ptr,
     u32 mask, u32 done, int usec)
{
 u32 result;
 int ret;

 ret = readl_poll_timeout_atomic(ptr, result,
     ((result & mask) == done ||
      result == U32_MAX),
     1, usec);
 if (result == U32_MAX)  /* card removed */
  return -ENODEV;

 return ret;
}

/* Force HC to halt state from unknown (EHCI spec section 2.3) */
static int ehci_halt(struct oxu_hcd *oxu)
{
 u32 temp = readl(&oxu->regs->status);

 /* disable any irqs left enabled by previous code */
 writel(0, &oxu->regs->intr_enable);

 if ((temp & STS_HALT) != 0)
  return 0;

 temp = readl(&oxu->regs->command);
 temp &= ~CMD_RUN;
 writel(temp, &oxu->regs->command);
 return handshake(oxu, &oxu->regs->status,
     STS_HALT, STS_HALT, 16 * 125);
}

/* Put TDI/ARC silicon into EHCI mode */
static void tdi_reset(struct oxu_hcd *oxu)
{
 u32 __iomem *reg_ptr;
 u32 tmp;

 reg_ptr = (u32 __iomem *)(((u8 __iomem *)oxu->regs) + 0x68);
 tmp = readl(reg_ptr);
 tmp |= 0x3;
 writel(tmp, reg_ptr);
}

/* Reset a non-running (STS_HALT == 1) controller */
static int ehci_reset(struct oxu_hcd *oxu)
{
 int retval;
 u32 command = readl(&oxu->regs->command);

 command |= CMD_RESET;
 dbg_cmd(oxu, "reset", command);
 writel(command, &oxu->regs->command);
 oxu_to_hcd(oxu)->state = HC_STATE_HALT;
 oxu->next_statechange = jiffies;
 retval = handshake(oxu, &oxu->regs->command,
       CMD_RESET, 0, 250 * 1000);

 if (retval)
  return retval;

 tdi_reset(oxu);

 return retval;
}

/* Idle the controller (from running) */
static void ehci_quiesce(struct oxu_hcd *oxu)
{
 u32 temp;

#ifdef DEBUG
 BUG_ON(!HC_IS_RUNNING(oxu_to_hcd(oxu)->state));
#endif

 /* wait for any schedule enables/disables to take effect */
 temp = readl(&oxu->regs->command) << 10;
 temp &= STS_ASS | STS_PSS;
 if (handshake(oxu, &oxu->regs->status, STS_ASS | STS_PSS,
    temp, 16 * 125) != 0) {
  oxu_to_hcd(oxu)->state = HC_STATE_HALT;
  return;
 }

 /* then disable anything that's still active */
 temp = readl(&oxu->regs->command);
 temp &= ~(CMD_ASE | CMD_IAAD | CMD_PSE);
 writel(temp, &oxu->regs->command);

 /* hardware can take 16 microframes to turn off ... */
 if (handshake(oxu, &oxu->regs->status, STS_ASS | STS_PSS,
    0, 16 * 125) != 0) {
  oxu_to_hcd(oxu)->state = HC_STATE_HALT;
  return;
 }
}

static int check_reset_complete(struct oxu_hcd *oxu, int index,
    u32 __iomem *status_reg, int port_status)
{
 if (!(port_status & PORT_CONNECT)) {
  oxu->reset_done[index] = 0;
  return port_status;
 }

 /* if reset finished and it's still not enabled -- handoff */
 if (!(port_status & PORT_PE)) {
  oxu_dbg(oxu, "Failed to enable port %d on root hub TT\n",
    index+1);
  return port_status;
 } else
  oxu_dbg(oxu, "port %d high speed\n", index + 1);

 return port_status;
}

static void ehci_hub_descriptor(struct oxu_hcd *oxu,
    struct usb_hub_descriptor *desc)
{
 int ports = HCS_N_PORTS(oxu->hcs_params);
 u16 temp;

 desc->bDescriptorType = USB_DT_HUB;
 desc->bPwrOn2PwrGood = 10; /* oxu 1.0, 2.3.9 says 20ms max */
 desc->bHubContrCurrent = 0;

 desc->bNbrPorts = ports;
 temp = 1 + (ports / 8);
 desc->bDescLength = 7 + 2 * temp;

 /* ports removable, and usb 1.0 legacy PortPwrCtrlMask */
 memset(&desc->u.hs.DeviceRemovable[0], 0, temp);
 memset(&desc->u.hs.DeviceRemovable[temp], 0xff, temp);

 temp = HUB_CHAR_INDV_PORT_OCPM; /* per-port overcurrent reporting */
 if (HCS_PPC(oxu->hcs_params))
  temp |= HUB_CHAR_INDV_PORT_LPSM; /* per-port power control */
 else
  temp |= HUB_CHAR_NO_LPSM; /* no power switching */
 desc->wHubCharacteristics = (__force __u16)cpu_to_le16(temp);
}


/* Allocate an OXU210HP on-chip memory data buffer
 *
 * An on-chip memory data buffer is required for each OXU210HP USB transfer.
 * Each transfer descriptor has one or more on-chip memory data buffers.
 *
 * Data buffers are allocated from a fix sized pool of data blocks.
 * To minimise fragmentation and give reasonable memory utlisation,
 * data buffers are allocated with sizes the power of 2 multiples of
 * the block size, starting on an address a multiple of the allocated size.
 *
 * FIXME: callers of this function require a buffer to be allocated for
 * len=0. This is a waste of on-chip memory and should be fix. Then this
 * function should be changed to not allocate a buffer for len=0.
 */

static int oxu_buf_alloc(struct oxu_hcd *oxu, struct ehci_qtd *qtd, int len)
{
 int n_blocks; /* minium blocks needed to hold len */
 int a_blocks; /* blocks allocated */
 int i, j;

 /* Don't allocate bigger than supported */
 if (len > BUFFER_SIZE * BUFFER_NUM) {
  oxu_err(oxu, "buffer too big (%d)\n", len);
  return -ENOMEM;
 }

 spin_lock(&oxu->mem_lock);

 /* Number of blocks needed to hold len */
 n_blocks = (len + BUFFER_SIZE - 1) / BUFFER_SIZE;

 /* Round the number of blocks up to the power of 2 */
 for (a_blocks = 1; a_blocks < n_blocks; a_blocks <<= 1)
  ;

 /* Find a suitable available data buffer */
 for (i = 0; i < BUFFER_NUM;
   i += max_t(int, a_blocks, oxu->db_used[i])) {

  /* Check all the required blocks are available */
  for (j = 0; j < a_blocks; j++)
   if (oxu->db_used[i + j])
    break;

  if (j != a_blocks)
   continue;

  /* Allocate blocks found! */
  qtd->buffer = (void *) &oxu->mem->db_pool[i];
  qtd->buffer_dma = virt_to_phys(qtd->buffer);

  qtd->qtd_buffer_len = BUFFER_SIZE * a_blocks;
  oxu->db_used[i] = a_blocks;

  spin_unlock(&oxu->mem_lock);

  return 0;
 }

 /* Failed */

 spin_unlock(&oxu->mem_lock);

 return -ENOMEM;
}

static void oxu_buf_free(struct oxu_hcd *oxu, struct ehci_qtd *qtd)
{
 int index;

 spin_lock(&oxu->mem_lock);

 index = (qtd->buffer - (void *) &oxu->mem->db_pool[0])
        / BUFFER_SIZE;
 oxu->db_used[index] = 0;
 qtd->qtd_buffer_len = 0;
 qtd->buffer_dma = 0;
 qtd->buffer = NULL;

 spin_unlock(&oxu->mem_lock);
}

static inline void ehci_qtd_init(struct ehci_qtd *qtd, dma_addr_t dma)
{
 memset(qtd, 0, sizeof *qtd);
 qtd->qtd_dma = dma;
 qtd->hw_token = cpu_to_le32(QTD_STS_HALT);
 qtd->hw_next = EHCI_LIST_END;
 qtd->hw_alt_next = EHCI_LIST_END;
 INIT_LIST_HEAD(&qtd->qtd_list);
}

static inline void oxu_qtd_free(struct oxu_hcd *oxu, struct ehci_qtd *qtd)
{
 int index;

 if (qtd->buffer)
  oxu_buf_free(oxu, qtd);

 spin_lock(&oxu->mem_lock);

 index = qtd - &oxu->mem->qtd_pool[0];
 oxu->qtd_used[index] = 0;

 spin_unlock(&oxu->mem_lock);
}

static struct ehci_qtd *ehci_qtd_alloc(struct oxu_hcd *oxu)
{
 int i;
 struct ehci_qtd *qtd = NULL;

 spin_lock(&oxu->mem_lock);

 for (i = 0; i < QTD_NUM; i++)
  if (!oxu->qtd_used[i])
   break;

 if (i < QTD_NUM) {
  qtd = (struct ehci_qtd *) &oxu->mem->qtd_pool[i];
  memset(qtd, 0, sizeof *qtd);

  qtd->hw_token = cpu_to_le32(QTD_STS_HALT);
  qtd->hw_next = EHCI_LIST_END;
  qtd->hw_alt_next = EHCI_LIST_END;
  INIT_LIST_HEAD(&qtd->qtd_list);

  qtd->qtd_dma = virt_to_phys(qtd);

  oxu->qtd_used[i] = 1;
 }

 spin_unlock(&oxu->mem_lock);

 return qtd;
}

static void oxu_qh_free(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 int index;

 spin_lock(&oxu->mem_lock);

 index = qh - &oxu->mem->qh_pool[0];
 oxu->qh_used[index] = 0;

 spin_unlock(&oxu->mem_lock);
}

static void qh_destroy(struct kref *kref)
{
 struct ehci_qh *qh = container_of(kref, struct ehci_qh, kref);
 struct oxu_hcd *oxu = qh->oxu;

 /* clean qtds first, and know this is not linked */
 if (!list_empty(&qh->qtd_list) || qh->qh_next.ptr) {
  oxu_dbg(oxu, "unused qh not empty!\n");
  BUG();
 }
 if (qh->dummy)
  oxu_qtd_free(oxu, qh->dummy);
 oxu_qh_free(oxu, qh);
}

static struct ehci_qh *oxu_qh_alloc(struct oxu_hcd *oxu)
{
 int i;
 struct ehci_qh *qh = NULL;

 spin_lock(&oxu->mem_lock);

 for (i = 0; i < QHEAD_NUM; i++)
  if (!oxu->qh_used[i])
   break;

 if (i < QHEAD_NUM) {
  qh = (struct ehci_qh *) &oxu->mem->qh_pool[i];
  memset(qh, 0, sizeof *qh);

  kref_init(&qh->kref);
  qh->oxu = oxu;
  qh->qh_dma = virt_to_phys(qh);
  INIT_LIST_HEAD(&qh->qtd_list);

  /* dummy td enables safe urb queuing */
  qh->dummy = ehci_qtd_alloc(oxu);
  if (qh->dummy == NULL) {
   oxu_dbg(oxu, "no dummy td\n");
   oxu->qh_used[i] = 0;
   qh = NULL;
   goto unlock;
  }

  oxu->qh_used[i] = 1;
 }
unlock:
 spin_unlock(&oxu->mem_lock);

 return qh;
}

/* to share a qh (cpu threads, or hc) */
static inline struct ehci_qh *qh_get(struct ehci_qh *qh)
{
 kref_get(&qh->kref);
 return qh;
}

static inline void qh_put(struct ehci_qh *qh)
{
 kref_put(&qh->kref, qh_destroy);
}

static void oxu_murb_free(struct oxu_hcd *oxu, struct oxu_murb *murb)
{
 int index;

 spin_lock(&oxu->mem_lock);

 index = murb - &oxu->murb_pool[0];
 oxu->murb_used[index] = 0;

 spin_unlock(&oxu->mem_lock);
}

static struct oxu_murb *oxu_murb_alloc(struct oxu_hcd *oxu)

{
 int i;
 struct oxu_murb *murb = NULL;

 spin_lock(&oxu->mem_lock);

 for (i = 0; i < MURB_NUM; i++)
  if (!oxu->murb_used[i])
   break;

 if (i < MURB_NUM) {
  murb = &(oxu->murb_pool)[i];

  oxu->murb_used[i] = 1;
 }

 spin_unlock(&oxu->mem_lock);

 return murb;
}

/* The queue heads and transfer descriptors are managed from pools tied
 * to each of the "per device" structures.
 * This is the initialisation and cleanup code.
 */

static void ehci_mem_cleanup(struct oxu_hcd *oxu)
{
 kfree(oxu->murb_pool);
 oxu->murb_pool = NULL;

 if (oxu->async)
  qh_put(oxu->async);
 oxu->async = NULL;

 timer_delete(&oxu->urb_timer);

 oxu->periodic = NULL;

 /* shadow periodic table */
 kfree(oxu->pshadow);
 oxu->pshadow = NULL;
}

/* Remember to add cleanup code (above) if you add anything here.
 */

static int ehci_mem_init(struct oxu_hcd *oxu, gfp_t flags)
{
 int i;

 for (i = 0; i < oxu->periodic_size; i++)
  oxu->mem->frame_list[i] = EHCI_LIST_END;
 for (i = 0; i < QHEAD_NUM; i++)
  oxu->qh_used[i] = 0;
 for (i = 0; i < QTD_NUM; i++)
  oxu->qtd_used[i] = 0;

 oxu->murb_pool = kcalloc(MURB_NUM, sizeof(struct oxu_murb), flags);
 if (!oxu->murb_pool)
  goto fail;

 for (i = 0; i < MURB_NUM; i++)
  oxu->murb_used[i] = 0;

 oxu->async = oxu_qh_alloc(oxu);
 if (!oxu->async)
  goto fail;

 oxu->periodic = (__le32 *) &oxu->mem->frame_list;
 oxu->periodic_dma = virt_to_phys(oxu->periodic);

 for (i = 0; i < oxu->periodic_size; i++)
  oxu->periodic[i] = EHCI_LIST_END;

 /* software shadow of hardware table */
 oxu->pshadow = kcalloc(oxu->periodic_size, sizeof(void *), flags);
 if (oxu->pshadow != NULL)
  return 0;

fail:
 oxu_dbg(oxu, "couldn't init memory\n");
 ehci_mem_cleanup(oxu);
 return -ENOMEM;
}

/* Fill a qtd, returning how much of the buffer we were able to queue up.
 */

static int qtd_fill(struct ehci_qtd *qtd, dma_addr_t buf, size_t len,
    int token, int maxpacket)
{
 int i, count;
 u64 addr = buf;

 /* one buffer entry per 4K ... first might be short or unaligned */
 qtd->hw_buf[0] = cpu_to_le32((u32)addr);
 qtd->hw_buf_hi[0] = cpu_to_le32((u32)(addr >> 32));
 count = 0x1000 - (buf & 0x0fff); /* rest of that page */
 if (likely(len < count))  /* ... iff needed */
  count = len;
 else {
  buf +=  0x1000;
  buf &= ~0x0fff;

  /* per-qtd limit: from 16K to 20K (best alignment) */
  for (i = 1; count < len && i < 5; i++) {
   addr = buf;
   qtd->hw_buf[i] = cpu_to_le32((u32)addr);
   qtd->hw_buf_hi[i] = cpu_to_le32((u32)(addr >> 32));
   buf += 0x1000;
   if ((count + 0x1000) < len)
    count += 0x1000;
   else
    count = len;
  }

  /* short packets may only terminate transfers */
  if (count != len)
   count -= (count % maxpacket);
 }
 qtd->hw_token = cpu_to_le32((count << 16) | token);
 qtd->length = count;

 return count;
}

static inline void qh_update(struct oxu_hcd *oxu,
    struct ehci_qh *qh, struct ehci_qtd *qtd)
{
 /* writes to an active overlay are unsafe */
 BUG_ON(qh->qh_state != QH_STATE_IDLE);

 qh->hw_qtd_next = QTD_NEXT(qtd->qtd_dma);
 qh->hw_alt_next = EHCI_LIST_END;

 /* Except for control endpoints, we make hardware maintain data
 * toggle (like OHCI) ... here (re)initialize the toggle in the QH,
 * and set the pseudo-toggle in udev. Only usb_clear_halt() will
 * ever clear it.
 */

 if (!(qh->hw_info1 & cpu_to_le32(1 << 14))) {
  unsigned is_out, epnum;

  is_out = !(qtd->hw_token & cpu_to_le32(1 << 8));
  epnum = (le32_to_cpup(&qh->hw_info1) >> 8) & 0x0f;
  if (unlikely(!usb_gettoggle(qh->dev, epnum, is_out))) {
   qh->hw_token &= ~cpu_to_le32(QTD_TOGGLE);
   usb_settoggle(qh->dev, epnum, is_out, 1);
  }
 }

 /* HC must see latest qtd and qh data before we clear ACTIVE+HALT */
 wmb();
 qh->hw_token &= cpu_to_le32(QTD_TOGGLE | QTD_STS_PING);
}

/* If it weren't for a common silicon quirk (writing the dummy into the qh
 * overlay, so qh->hw_token wrongly becomes inactive/halted), only fault
 * recovery (including urb dequeue) would need software changes to a QH...
 */

static void qh_refresh(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 struct ehci_qtd *qtd;

 if (list_empty(&qh->qtd_list))
  qtd = qh->dummy;
 else {
  qtd = list_entry(qh->qtd_list.next,
    struct ehci_qtd, qtd_list);
  /* first qtd may already be partially processed */
  if (cpu_to_le32(qtd->qtd_dma) == qh->hw_current)
   qtd = NULL;
 }

 if (qtd)
  qh_update(oxu, qh, qtd);
}

static void qtd_copy_status(struct oxu_hcd *oxu, struct urb *urb,
    size_t length, u32 token)
{
 /* count IN/OUT bytes, not SETUP (even short packets) */
 if (likely(QTD_PID(token) != 2))
  urb->actual_length += length - QTD_LENGTH(token);

 /* don't modify error codes */
 if (unlikely(urb->status != -EINPROGRESS))
  return;

 /* force cleanup after short read; not always an error */
 if (unlikely(IS_SHORT_READ(token)))
  urb->status = -EREMOTEIO;

 /* serious "can't proceed" faults reported by the hardware */
 if (token & QTD_STS_HALT) {
  if (token & QTD_STS_BABBLE) {
   /* FIXME "must" disable babbling device's port too */
   urb->status = -EOVERFLOW;
  } else if (token & QTD_STS_MMF) {
   /* fs/ls interrupt xfer missed the complete-split */
   urb->status = -EPROTO;
  } else if (token & QTD_STS_DBE) {
   urb->status = (QTD_PID(token) == 1) /* IN ? */
    ? -ENOSR  /* hc couldn't read data */
    : -ECOMM; /* hc couldn't write data */
  } else if (token & QTD_STS_XACT) {
   /* timeout, bad crc, wrong PID, etc; retried */
   if (QTD_CERR(token))
    urb->status = -EPIPE;
   else {
    oxu_dbg(oxu, "devpath %s ep%d%s 3strikes\n",
     urb->dev->devpath,
     usb_pipeendpoint(urb->pipe),
     usb_pipein(urb->pipe) ? "in" : "out");
    urb->status = -EPROTO;
   }
  /* CERR nonzero + no errors + halt --> stall */
  } else if (QTD_CERR(token))
   urb->status = -EPIPE;
  else /* unknown */
   urb->status = -EPROTO;

  oxu_vdbg(oxu, "dev%d ep%d%s qtd token %08x --> status %d\n",
   usb_pipedevice(urb->pipe),
   usb_pipeendpoint(urb->pipe),
   usb_pipein(urb->pipe) ? "in" : "out",
   token, urb->status);
 }
}

static void ehci_urb_done(struct oxu_hcd *oxu, struct urb *urb)
__releases(oxu->lock)
__acquires(oxu->lock)
{
 if (likely(urb->hcpriv != NULL)) {
  struct ehci_qh *qh = (struct ehci_qh *) urb->hcpriv;

  /* S-mask in a QH means it's an interrupt urb */
  if ((qh->hw_info2 & cpu_to_le32(QH_SMASK)) != 0) {

   /* ... update hc-wide periodic stats (for usbfs) */
   oxu_to_hcd(oxu)->self.bandwidth_int_reqs--;
  }
  qh_put(qh);
 }

 urb->hcpriv = NULL;
 switch (urb->status) {
 case -EINPROGRESS:  /* success */
  urb->status = 0;
  break;
 default:   /* fault */
  break;
 case -EREMOTEIO:  /* fault or normal */
  if (!(urb->transfer_flags & URB_SHORT_NOT_OK))
   urb->status = 0;
  break;
 case -ECONNRESET:  /* canceled */
 case -ENOENT:
  break;
 }

#ifdef OXU_URB_TRACE
 oxu_dbg(oxu, "%s %s urb %p ep%d%s status %d len %d/%d\n",
  __func__, urb->dev->devpath, urb,
  usb_pipeendpoint(urb->pipe),
  usb_pipein(urb->pipe) ? "in" : "out",
  urb->status,
  urb->actual_length, urb->transfer_buffer_length);
#endif

 /* complete() can reenter this HCD */
 spin_unlock(&oxu->lock);
 usb_hcd_giveback_urb(oxu_to_hcd(oxu), urb, urb->status);
 spin_lock(&oxu->lock);
}

static void start_unlink_async(struct oxu_hcd *oxu, struct ehci_qh *qh);
static void unlink_async(struct oxu_hcd *oxu, struct ehci_qh *qh);

static void intr_deschedule(struct oxu_hcd *oxu, struct ehci_qh *qh);
static int qh_schedule(struct oxu_hcd *oxu, struct ehci_qh *qh);

#define HALT_BIT cpu_to_le32(QTD_STS_HALT)

/* Process and free completed qtds for a qh, returning URBs to drivers.
 * Chases up to qh->hw_current.  Returns number of completions called,
 * indicating how much "real" work we did.
 */

static unsigned qh_completions(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 struct ehci_qtd *last = NULL, *end = qh->dummy;
 struct ehci_qtd *qtd, *tmp;
 int stopped;
 unsigned count = 0;
 int do_status = 0;
 u8 state;
 struct oxu_murb *murb = NULL;

 if (unlikely(list_empty(&qh->qtd_list)))
  return count;

 /* completions (or tasks on other cpus) must never clobber HALT
 * till we've gone through and cleaned everything up, even when
 * they add urbs to this qh's queue or mark them for unlinking.
 *
 * NOTE:  unlinking expects to be done in queue order.
 */

 state = qh->qh_state;
 qh->qh_state = QH_STATE_COMPLETING;
 stopped = (state == QH_STATE_IDLE);

 /* remove de-activated QTDs from front of queue.
 * after faults (including short reads), cleanup this urb
 * then let the queue advance.
 * if queue is stopped, handles unlinks.
 */

 list_for_each_entry_safe(qtd, tmp, &qh->qtd_list, qtd_list) {
  struct urb *urb;
  u32 token = 0;

  urb = qtd->urb;

  /* Clean up any state from previous QTD ...*/
  if (last) {
   if (likely(last->urb != urb)) {
    if (last->urb->complete == NULL) {
     murb = (struct oxu_murb *) last->urb;
     last->urb = murb->main;
     if (murb->last) {
      ehci_urb_done(oxu, last->urb);
      count++;
     }
     oxu_murb_free(oxu, murb);
    } else {
     ehci_urb_done(oxu, last->urb);
     count++;
    }
   }
   oxu_qtd_free(oxu, last);
   last = NULL;
  }

  /* ignore urbs submitted during completions we reported */
  if (qtd == end)
   break;

  /* hardware copies qtd out of qh overlay */
  rmb();
  token = le32_to_cpu(qtd->hw_token);

  /* always clean up qtds the hc de-activated */
  if ((token & QTD_STS_ACTIVE) == 0) {

   if ((token & QTD_STS_HALT) != 0) {
    stopped = 1;

   /* magic dummy for some short reads; qh won't advance.
 * that silicon quirk can kick in with this dummy too.
 */

   } else if (IS_SHORT_READ(token) &&
     !(qtd->hw_alt_next & EHCI_LIST_END)) {
    stopped = 1;
    goto halt;
   }

  /* stop scanning when we reach qtds the hc is using */
  } else if (likely(!stopped &&
    HC_IS_RUNNING(oxu_to_hcd(oxu)->state))) {
   break;

  } else {
   stopped = 1;

   if (unlikely(!HC_IS_RUNNING(oxu_to_hcd(oxu)->state)))
    urb->status = -ESHUTDOWN;

   /* ignore active urbs unless some previous qtd
 * for the urb faulted (including short read) or
 * its urb was canceled.  we may patch qh or qtds.
 */

   if (likely(urb->status == -EINPROGRESS))
    continue;

   /* issue status after short control reads */
   if (unlikely(do_status != 0)
     && QTD_PID(token) == 0 /* OUT */) {
    do_status = 0;
    continue;
   }

   /* token in overlay may be most current */
   if (state == QH_STATE_IDLE
     && cpu_to_le32(qtd->qtd_dma)
      == qh->hw_current)
    token = le32_to_cpu(qh->hw_token);

   /* force halt for unlinked or blocked qh, so we'll
 * patch the qh later and so that completions can't
 * activate it while we "know" it's stopped.
 */

   if ((HALT_BIT & qh->hw_token) == 0) {
halt:
    qh->hw_token |= HALT_BIT;
    wmb();
   }
  }

  /* Remove it from the queue */
  qtd_copy_status(oxu, urb->complete ?
     urb : ((struct oxu_murb *) urb)->main,
    qtd->length, token);
  if ((usb_pipein(qtd->urb->pipe)) &&
    (NULL != qtd->transfer_buffer))
   memcpy(qtd->transfer_buffer, qtd->buffer, qtd->length);
  do_status = (urb->status == -EREMOTEIO)
    && usb_pipecontrol(urb->pipe);

  if (stopped && qtd->qtd_list.prev != &qh->qtd_list) {
   last = list_entry(qtd->qtd_list.prev,
     struct ehci_qtd, qtd_list);
   last->hw_next = qtd->hw_next;
  }
  list_del(&qtd->qtd_list);
  last = qtd;
 }

 /* last urb's completion might still need calling */
 if (likely(last != NULL)) {
  if (last->urb->complete == NULL) {
   murb = (struct oxu_murb *) last->urb;
   last->urb = murb->main;
   if (murb->last) {
    ehci_urb_done(oxu, last->urb);
    count++;
   }
   oxu_murb_free(oxu, murb);
  } else {
   ehci_urb_done(oxu, last->urb);
   count++;
  }
  oxu_qtd_free(oxu, last);
 }

 /* restore original state; caller must unlink or relink */
 qh->qh_state = state;

 /* be sure the hardware's done with the qh before refreshing
 * it after fault cleanup, or recovering from silicon wrongly
 * overlaying the dummy qtd (which reduces DMA chatter).
 */

 if (stopped != 0 || qh->hw_qtd_next == EHCI_LIST_END) {
  switch (state) {
  case QH_STATE_IDLE:
   qh_refresh(oxu, qh);
   break;
  case QH_STATE_LINKED:
   /* should be rare for periodic transfers,
 * except maybe high bandwidth ...
 */

   if ((cpu_to_le32(QH_SMASK)
     & qh->hw_info2) != 0) {
    intr_deschedule(oxu, qh);
    (void) qh_schedule(oxu, qh);
   } else
    unlink_async(oxu, qh);
   break;
  /* otherwise, unlink already started */
  }
 }

 return count;
}

/* High bandwidth multiplier, as encoded in highspeed endpoint descriptors */
#define hb_mult(wMaxPacketSize)  (1 + (((wMaxPacketSize) >> 11) & 0x03))
/* ... and packet size, for any kind of endpoint descriptor */
#define max_packet(wMaxPacketSize) ((wMaxPacketSize) & 0x07ff)

/* Reverse of qh_urb_transaction: free a list of TDs.
 * used for cleanup after errors, before HC sees an URB's TDs.
 */

static void qtd_list_free(struct oxu_hcd *oxu,
    struct urb *urb, struct list_head *head)
{
 struct ehci_qtd *qtd, *temp;

 list_for_each_entry_safe(qtd, temp, head, qtd_list) {
  list_del(&qtd->qtd_list);
  oxu_qtd_free(oxu, qtd);
 }
}

/* Create a list of filled qtds for this URB; won't link into qh.
 */

static struct list_head *qh_urb_transaction(struct oxu_hcd *oxu,
      struct urb *urb,
      struct list_head *head,
      gfp_t flags)
{
 struct ehci_qtd *qtd, *qtd_prev;
 dma_addr_t buf;
 int len, maxpacket;
 int is_input;
 u32 token;
 void *transfer_buf = NULL;
 int ret;

 /*
 * URBs map to sequences of QTDs: one logical transaction
 */

 qtd = ehci_qtd_alloc(oxu);
 if (unlikely(!qtd))
  return NULL;
 list_add_tail(&qtd->qtd_list, head);
 qtd->urb = urb;

 token = QTD_STS_ACTIVE;
 token |= (EHCI_TUNE_CERR << 10);
 /* for split transactions, SplitXState initialized to zero */

 len = urb->transfer_buffer_length;
 is_input = usb_pipein(urb->pipe);
 if (!urb->transfer_buffer && urb->transfer_buffer_length && is_input)
  urb->transfer_buffer = phys_to_virt(urb->transfer_dma);

 if (usb_pipecontrol(urb->pipe)) {
  /* SETUP pid */
  ret = oxu_buf_alloc(oxu, qtd, sizeof(struct usb_ctrlrequest));
  if (ret)
   goto cleanup;

  qtd_fill(qtd, qtd->buffer_dma, sizeof(struct usb_ctrlrequest),
    token | (2 /* "setup" */ << 8), 8);
  memcpy(qtd->buffer, qtd->urb->setup_packet,
    sizeof(struct usb_ctrlrequest));

  /* ... and always at least one more pid */
  token ^= QTD_TOGGLE;
  qtd_prev = qtd;
  qtd = ehci_qtd_alloc(oxu);
  if (unlikely(!qtd))
   goto cleanup;
  qtd->urb = urb;
  qtd_prev->hw_next = QTD_NEXT(qtd->qtd_dma);
  list_add_tail(&qtd->qtd_list, head);

  /* for zero length DATA stages, STATUS is always IN */
  if (len == 0)
   token |= (1 /* "in" */ << 8);
 }

 /*
 * Data transfer stage: buffer setup
 */


 ret = oxu_buf_alloc(oxu, qtd, len);
 if (ret)
  goto cleanup;

 buf = qtd->buffer_dma;
 transfer_buf = urb->transfer_buffer;

 if (!is_input)
  memcpy(qtd->buffer, qtd->urb->transfer_buffer, len);

 if (is_input)
  token |= (1 /* "in" */ << 8);
 /* else it's already initted to "out" pid (0 << 8) */

 maxpacket = usb_maxpacket(urb->dev, urb->pipe);

 /*
 * buffer gets wrapped in one or more qtds;
 * last one may be "short" (including zero len)
 * and may serve as a control status ack
 */

 for (;;) {
  int this_qtd_len;

  this_qtd_len = qtd_fill(qtd, buf, len, token, maxpacket);
  qtd->transfer_buffer = transfer_buf;
  len -= this_qtd_len;
  buf += this_qtd_len;
  transfer_buf += this_qtd_len;
  if (is_input)
   qtd->hw_alt_next = oxu->async->hw_alt_next;

  /* qh makes control packets use qtd toggle; maybe switch it */
  if ((maxpacket & (this_qtd_len + (maxpacket - 1))) == 0)
   token ^= QTD_TOGGLE;

  if (likely(len <= 0))
   break;

  qtd_prev = qtd;
  qtd = ehci_qtd_alloc(oxu);
  if (unlikely(!qtd))
   goto cleanup;
  if (likely(len > 0)) {
   ret = oxu_buf_alloc(oxu, qtd, len);
   if (ret)
    goto cleanup;
  }
  qtd->urb = urb;
  qtd_prev->hw_next = QTD_NEXT(qtd->qtd_dma);
  list_add_tail(&qtd->qtd_list, head);
 }

 /* unless the bulk/interrupt caller wants a chance to clean
 * up after short reads, hc should advance qh past this urb
 */

 if (likely((urb->transfer_flags & URB_SHORT_NOT_OK) == 0
    || usb_pipecontrol(urb->pipe)))
  qtd->hw_alt_next = EHCI_LIST_END;

 /*
 * control requests may need a terminating data "status" ack;
 * bulk ones may need a terminating short packet (zero length).
 */

 if (likely(urb->transfer_buffer_length != 0)) {
  int one_more = 0;

  if (usb_pipecontrol(urb->pipe)) {
   one_more = 1;
   token ^= 0x0100; /* "in" <--> "out"  */
   token |= QTD_TOGGLE; /* force DATA1 */
  } else if (usb_pipebulk(urb->pipe)
    && (urb->transfer_flags & URB_ZERO_PACKET)
    && !(urb->transfer_buffer_length % maxpacket)) {
   one_more = 1;
  }
  if (one_more) {
   qtd_prev = qtd;
   qtd = ehci_qtd_alloc(oxu);
   if (unlikely(!qtd))
    goto cleanup;
   qtd->urb = urb;
   qtd_prev->hw_next = QTD_NEXT(qtd->qtd_dma);
   list_add_tail(&qtd->qtd_list, head);

   /* never any data in such packets */
   qtd_fill(qtd, 0, 0, token, 0);
  }
 }

 /* by default, enable interrupt on urb completion */
 qtd->hw_token |= cpu_to_le32(QTD_IOC);
 return head;

cleanup:
 qtd_list_free(oxu, urb, head);
 return NULL;
}

/* Each QH holds a qtd list; a QH is used for everything except iso.
 *
 * For interrupt urbs, the scheduler must set the microframe scheduling
 * mask(s) each time the QH gets scheduled.  For highspeed, that's
 * just one microframe in the s-mask.  For split interrupt transactions
 * there are additional complications: c-mask, maybe FSTNs.
 */

static struct ehci_qh *qh_make(struct oxu_hcd *oxu,
    struct urb *urb, gfp_t flags)
{
 struct ehci_qh *qh = oxu_qh_alloc(oxu);
 u32 info1 = 0, info2 = 0;
 int is_input, type;
 int maxp = 0;

 if (!qh)
  return qh;

 /*
 * init endpoint/device data for this QH
 */

 info1 |= usb_pipeendpoint(urb->pipe) << 8;
 info1 |= usb_pipedevice(urb->pipe) << 0;

 is_input = usb_pipein(urb->pipe);
 type = usb_pipetype(urb->pipe);
 maxp = usb_maxpacket(urb->dev, urb->pipe);

 /* Compute interrupt scheduling parameters just once, and save.
 * - allowing for high bandwidth, how many nsec/uframe are used?
 * - split transactions need a second CSPLIT uframe; same question
 * - splits also need a schedule gap (for full/low speed I/O)
 * - qh has a polling interval
 *
 * For control/bulk requests, the HC or TT handles these.
 */

 if (type == PIPE_INTERRUPT) {
  qh->usecs = NS_TO_US(usb_calc_bus_time(USB_SPEED_HIGH,
        is_input, 0,
    hb_mult(maxp) * max_packet(maxp)));
  qh->start = NO_FRAME;

  if (urb->dev->speed == USB_SPEED_HIGH) {
   qh->c_usecs = 0;
   qh->gap_uf = 0;

   qh->period = urb->interval >> 3;
   if (qh->period == 0 && urb->interval != 1) {
    /* NOTE interval 2 or 4 uframes could work.
 * But interval 1 scheduling is simpler, and
 * includes high bandwidth.
 */

    oxu_dbg(oxu, "intr period %d uframes, NYET!\n",
     urb->interval);
    goto done;
   }
  } else {
   struct usb_tt *tt = urb->dev->tt;
   int  think_time;

   /* gap is f(FS/LS transfer times) */
   qh->gap_uf = 1 + usb_calc_bus_time(urb->dev->speed,
     is_input, 0, maxp) / (125 * 1000);

   /* FIXME this just approximates SPLIT/CSPLIT times */
   if (is_input) {  /* SPLIT, gap, CSPLIT+DATA */
    qh->c_usecs = qh->usecs + HS_USECS(0);
    qh->usecs = HS_USECS(1);
   } else {  /* SPLIT+DATA, gap, CSPLIT */
    qh->usecs += HS_USECS(1);
    qh->c_usecs = HS_USECS(0);
   }

   think_time = tt ? tt->think_time : 0;
   qh->tt_usecs = NS_TO_US(think_time +
     usb_calc_bus_time(urb->dev->speed,
     is_input, 0, max_packet(maxp)));
   qh->period = urb->interval;
  }
 }

 /* support for tt scheduling, and access to toggles */
 qh->dev = urb->dev;

 /* using TT? */
 switch (urb->dev->speed) {
 case USB_SPEED_LOW:
  info1 |= (1 << 12); /* EPS "low" */
  fallthrough;

 case USB_SPEED_FULL:
  /* EPS 0 means "full" */
  if (type != PIPE_INTERRUPT)
   info1 |= (EHCI_TUNE_RL_TT << 28);
  if (type == PIPE_CONTROL) {
   info1 |= (1 << 27); /* for TT */
   info1 |= 1 << 14; /* toggle from qtd */
  }
  info1 |= maxp << 16;

  info2 |= (EHCI_TUNE_MULT_TT << 30);
  info2 |= urb->dev->ttport << 23;

  /* NOTE:  if (PIPE_INTERRUPT) { scheduler sets c-mask } */

  break;

 case USB_SPEED_HIGH:  /* no TT involved */
  info1 |= (2 << 12); /* EPS "high" */
  if (type == PIPE_CONTROL) {
   info1 |= (EHCI_TUNE_RL_HS << 28);
   info1 |= 64 << 16; /* usb2 fixed maxpacket */
   info1 |= 1 << 14; /* toggle from qtd */
   info2 |= (EHCI_TUNE_MULT_HS << 30);
  } else if (type == PIPE_BULK) {
   info1 |= (EHCI_TUNE_RL_HS << 28);
   info1 |= 512 << 16; /* usb2 fixed maxpacket */
   info2 |= (EHCI_TUNE_MULT_HS << 30);
  } else {  /* PIPE_INTERRUPT */
   info1 |= max_packet(maxp) << 16;
   info2 |= hb_mult(maxp) << 30;
  }
  break;
 default:
  oxu_dbg(oxu, "bogus dev %p speed %d\n", urb->dev, urb->dev->speed);
done:
  qh_put(qh);
  return NULL;
 }

 /* NOTE:  if (PIPE_INTERRUPT) { scheduler sets s-mask } */

 /* init as live, toggle clear, advance to dummy */
 qh->qh_state = QH_STATE_IDLE;
 qh->hw_info1 = cpu_to_le32(info1);
 qh->hw_info2 = cpu_to_le32(info2);
 usb_settoggle(urb->dev, usb_pipeendpoint(urb->pipe), !is_input, 1);
 qh_refresh(oxu, qh);
 return qh;
}

/* Move qh (and its qtds) onto async queue; maybe enable queue.
 */

static void qh_link_async(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 __le32 dma = QH_NEXT(qh->qh_dma);
 struct ehci_qh *head;

 /* (re)start the async schedule? */
 head = oxu->async;
 timer_action_done(oxu, TIMER_ASYNC_OFF);
 if (!head->qh_next.qh) {
  u32 cmd = readl(&oxu->regs->command);

  if (!(cmd & CMD_ASE)) {
   /* in case a clear of CMD_ASE didn't take yet */
   (void)handshake(oxu, &oxu->regs->status,
     STS_ASS, 0, 150);
   cmd |= CMD_ASE | CMD_RUN;
   writel(cmd, &oxu->regs->command);
   oxu_to_hcd(oxu)->state = HC_STATE_RUNNING;
   /* posted write need not be known to HC yet ... */
  }
 }

 /* clear halt and/or toggle; and maybe recover from silicon quirk */
 if (qh->qh_state == QH_STATE_IDLE)
  qh_refresh(oxu, qh);

 /* splice right after start */
 qh->qh_next = head->qh_next;
 qh->hw_next = head->hw_next;
 wmb();

 head->qh_next.qh = qh;
 head->hw_next = dma;

 qh->qh_state = QH_STATE_LINKED;
 /* qtd completions reported later by interrupt */
}

#define QH_ADDR_MASK cpu_to_le32(0x7f)

/*
 * For control/bulk/interrupt, return QH with these TDs appended.
 * Allocates and initializes the QH if necessary.
 * Returns null if it can't allocate a QH it needs to.
 * If the QH has TDs (urbs) already, that's great.
 */

static struct ehci_qh *qh_append_tds(struct oxu_hcd *oxu,
    struct urb *urb, struct list_head *qtd_list,
    int epnum, void **ptr)
{
 struct ehci_qh *qh = NULL;

 qh = (struct ehci_qh *) *ptr;
 if (unlikely(qh == NULL)) {
  /* can't sleep here, we have oxu->lock... */
  qh = qh_make(oxu, urb, GFP_ATOMIC);
  *ptr = qh;
 }
 if (likely(qh != NULL)) {
  struct ehci_qtd *qtd;

  if (unlikely(list_empty(qtd_list)))
   qtd = NULL;
  else
   qtd = list_entry(qtd_list->next, struct ehci_qtd,
     qtd_list);

  /* control qh may need patching ... */
  if (unlikely(epnum == 0)) {

   /* usb_reset_device() briefly reverts to address 0 */
   if (usb_pipedevice(urb->pipe) == 0)
    qh->hw_info1 &= ~QH_ADDR_MASK;
  }

  /* just one way to queue requests: swap with the dummy qtd.
 * only hc or qh_refresh() ever modify the overlay.
 */

  if (likely(qtd != NULL)) {
   struct ehci_qtd *dummy;
   dma_addr_t dma;
   __le32 token;

   /* to avoid racing the HC, use the dummy td instead of
 * the first td of our list (becomes new dummy).  both
 * tds stay deactivated until we're done, when the
 * HC is allowed to fetch the old dummy (4.10.2).
 */

   token = qtd->hw_token;
   qtd->hw_token = HALT_BIT;
   wmb();
   dummy = qh->dummy;

   dma = dummy->qtd_dma;
   *dummy = *qtd;
   dummy->qtd_dma = dma;

   list_del(&qtd->qtd_list);
   list_add(&dummy->qtd_list, qtd_list);
   list_splice(qtd_list, qh->qtd_list.prev);

   ehci_qtd_init(qtd, qtd->qtd_dma);
   qh->dummy = qtd;

   /* hc must see the new dummy at list end */
   dma = qtd->qtd_dma;
   qtd = list_entry(qh->qtd_list.prev,
     struct ehci_qtd, qtd_list);
   qtd->hw_next = QTD_NEXT(dma);

   /* let the hc process these next qtds */
   dummy->hw_token = (token & ~(0x80));
   wmb();
   dummy->hw_token = token;

   urb->hcpriv = qh_get(qh);
  }
 }
 return qh;
}

static int submit_async(struct oxu_hcd *oxu, struct urb *urb,
   struct list_head *qtd_list, gfp_t mem_flags)
{
 int epnum = urb->ep->desc.bEndpointAddress;
 unsigned long flags;
 struct ehci_qh *qh = NULL;
 int rc = 0;
#ifdef OXU_URB_TRACE
 struct ehci_qtd *qtd;

 qtd = list_entry(qtd_list->next, struct ehci_qtd, qtd_list);

 oxu_dbg(oxu, "%s %s urb %p ep%d%s len %d, qtd %p [qh %p]\n",
  __func__, urb->dev->devpath, urb,
  epnum & 0x0f, (epnum & USB_DIR_IN) ? "in" : "out",
  urb->transfer_buffer_length,
  qtd, urb->ep->hcpriv);
#endif

 spin_lock_irqsave(&oxu->lock, flags);
 if (unlikely(!HCD_HW_ACCESSIBLE(oxu_to_hcd(oxu)))) {
  rc = -ESHUTDOWN;
  goto done;
 }

 qh = qh_append_tds(oxu, urb, qtd_list, epnum, &urb->ep->hcpriv);
 if (unlikely(qh == NULL)) {
  rc = -ENOMEM;
  goto done;
 }

 /* Control/bulk operations through TTs don't need scheduling,
 * the HC and TT handle it when the TT has a buffer ready.
 */

 if (likely(qh->qh_state == QH_STATE_IDLE))
  qh_link_async(oxu, qh_get(qh));
done:
 spin_unlock_irqrestore(&oxu->lock, flags);
 if (unlikely(qh == NULL))
  qtd_list_free(oxu, urb, qtd_list);
 return rc;
}

/* The async qh for the qtds being reclaimed are now unlinked from the HC */

static void end_unlink_async(struct oxu_hcd *oxu)
{
 struct ehci_qh *qh = oxu->reclaim;
 struct ehci_qh *next;

 timer_action_done(oxu, TIMER_IAA_WATCHDOG);

 qh->qh_state = QH_STATE_IDLE;
 qh->qh_next.qh = NULL;
 qh_put(qh);   /* refcount from reclaim */

 /* other unlink(s) may be pending (in QH_STATE_UNLINK_WAIT) */
 next = qh->reclaim;
 oxu->reclaim = next;
 oxu->reclaim_ready = 0;
 qh->reclaim = NULL;

 qh_completions(oxu, qh);

 if (!list_empty(&qh->qtd_list)
   && HC_IS_RUNNING(oxu_to_hcd(oxu)->state))
  qh_link_async(oxu, qh);
 else {
  qh_put(qh);  /* refcount from async list */

  /* it's not free to turn the async schedule on/off; leave it
 * active but idle for a while once it empties.
 */

  if (HC_IS_RUNNING(oxu_to_hcd(oxu)->state)
    && oxu->async->qh_next.qh == NULL)
   timer_action(oxu, TIMER_ASYNC_OFF);
 }

 if (next) {
  oxu->reclaim = NULL;
  start_unlink_async(oxu, next);
 }
}

/* makes sure the async qh will become idle */
/* caller must own oxu->lock */

static void start_unlink_async(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 int cmd = readl(&oxu->regs->command);
 struct ehci_qh *prev;

#ifdef DEBUG
 assert_spin_locked(&oxu->lock);
 BUG_ON(oxu->reclaim || (qh->qh_state != QH_STATE_LINKED
    && qh->qh_state != QH_STATE_UNLINK_WAIT));
#endif

 /* stop async schedule right now? */
 if (unlikely(qh == oxu->async)) {
  /* can't get here without STS_ASS set */
  if (oxu_to_hcd(oxu)->state != HC_STATE_HALT
    && !oxu->reclaim) {
   /* ... and CMD_IAAD clear */
   writel(cmd & ~CMD_ASE, &oxu->regs->command);
   wmb();
   /* handshake later, if we need to */
   timer_action_done(oxu, TIMER_ASYNC_OFF);
  }
  return;
 }

 qh->qh_state = QH_STATE_UNLINK;
 oxu->reclaim = qh = qh_get(qh);

 prev = oxu->async;
 while (prev->qh_next.qh != qh)
  prev = prev->qh_next.qh;

 prev->hw_next = qh->hw_next;
 prev->qh_next = qh->qh_next;
 wmb();

 if (unlikely(oxu_to_hcd(oxu)->state == HC_STATE_HALT)) {
  /* if (unlikely(qh->reclaim != 0))
 * this will recurse, probably not much
 */

  end_unlink_async(oxu);
  return;
 }

 oxu->reclaim_ready = 0;
 cmd |= CMD_IAAD;
 writel(cmd, &oxu->regs->command);
 (void) readl(&oxu->regs->command);
 timer_action(oxu, TIMER_IAA_WATCHDOG);
}

static void scan_async(struct oxu_hcd *oxu)
{
 struct ehci_qh *qh;
 enum ehci_timer_action action = TIMER_IO_WATCHDOG;

 if (!++(oxu->stamp))
  oxu->stamp++;
 timer_action_done(oxu, TIMER_ASYNC_SHRINK);
rescan:
 qh = oxu->async->qh_next.qh;
 if (likely(qh != NULL)) {
  do {
   /* clean any finished work for this qh */
   if (!list_empty(&qh->qtd_list)
     && qh->stamp != oxu->stamp) {
    int temp;

    /* unlinks could happen here; completion
 * reporting drops the lock.  rescan using
 * the latest schedule, but don't rescan
 * qhs we already finished (no looping).
 */

    qh = qh_get(qh);
    qh->stamp = oxu->stamp;
    temp = qh_completions(oxu, qh);
    qh_put(qh);
    if (temp != 0)
     goto rescan;
   }

   /* unlink idle entries, reducing HC PCI usage as well
 * as HCD schedule-scanning costs.  delay for any qh
 * we just scanned, there's a not-unusual case that it
 * doesn't stay idle for long.
 * (plus, avoids some kind of re-activation race.)
 */

   if (list_empty(&qh->qtd_list)) {
    if (qh->stamp == oxu->stamp)
     action = TIMER_ASYNC_SHRINK;
    else if (!oxu->reclaim
         && qh->qh_state == QH_STATE_LINKED)
     start_unlink_async(oxu, qh);
   }

   qh = qh->qh_next.qh;
  } while (qh);
 }
 if (action == TIMER_ASYNC_SHRINK)
  timer_action(oxu, TIMER_ASYNC_SHRINK);
}

/*
 * periodic_next_shadow - return "next" pointer on shadow list
 * @periodic: host pointer to qh/itd/sitd
 * @tag: hardware tag for type of this record
 */

static union ehci_shadow *periodic_next_shadow(union ehci_shadow *periodic,
      __le32 tag)
{
 switch (tag) {
 default:
 case Q_TYPE_QH:
  return &periodic->qh->qh_next;
 }
}

/* caller must hold oxu->lock */
static void periodic_unlink(struct oxu_hcd *oxu, unsigned frame, void *ptr)
{
 union ehci_shadow *prev_p = &oxu->pshadow[frame];
 __le32 *hw_p = &oxu->periodic[frame];
 union ehci_shadow here = *prev_p;

 /* find predecessor of "ptr"; hw and shadow lists are in sync */
 while (here.ptr && here.ptr != ptr) {
  prev_p = periodic_next_shadow(prev_p, Q_NEXT_TYPE(*hw_p));
  hw_p = here.hw_next;
  here = *prev_p;
 }
 /* an interrupt entry (at list end) could have been shared */
 if (!here.ptr)
  return;

 /* update shadow and hardware lists ... the old "next" pointers
 * from ptr may still be in use, the caller updates them.
 */

 *prev_p = *periodic_next_shadow(&here, Q_NEXT_TYPE(*hw_p));
 *hw_p = *here.hw_next;
}

/* how many of the uframe's 125 usecs are allocated? */
static unsigned short periodic_usecs(struct oxu_hcd *oxu,
     unsigned frame, unsigned uframe)
{
 __le32 *hw_p = &oxu->periodic[frame];
 union ehci_shadow *q = &oxu->pshadow[frame];
 unsigned usecs = 0;

 while (q->ptr) {
  switch (Q_NEXT_TYPE(*hw_p)) {
  case Q_TYPE_QH:
  default:
   /* is it in the S-mask? */
   if (q->qh->hw_info2 & cpu_to_le32(1 << uframe))
    usecs += q->qh->usecs;
   /* ... or C-mask? */
   if (q->qh->hw_info2 & cpu_to_le32(1 << (8 + uframe)))
    usecs += q->qh->c_usecs;
   hw_p = &q->qh->hw_next;
   q = &q->qh->qh_next;
   break;
  }
 }
#ifdef DEBUG
 if (usecs > 100)
  oxu_err(oxu, "uframe %d sched overrun: %d usecs\n",
      frame * 8 + uframe, usecs);
#endif
 return usecs;
}

static int enable_periodic(struct oxu_hcd *oxu)
{
 u32 cmd;
 int status;

 /* did clearing PSE did take effect yet?
 * takes effect only at frame boundaries...
 */

 status = handshake(oxu, &oxu->regs->status, STS_PSS, 0, 9 * 125);
 if (status != 0) {
  oxu_to_hcd(oxu)->state = HC_STATE_HALT;
  usb_hc_died(oxu_to_hcd(oxu));
  return status;
 }

 cmd = readl(&oxu->regs->command) | CMD_PSE;
 writel(cmd, &oxu->regs->command);
 /* posted write ... PSS happens later */
 oxu_to_hcd(oxu)->state = HC_STATE_RUNNING;

 /* make sure ehci_work scans these */
 oxu->next_uframe = readl(&oxu->regs->frame_index)
  % (oxu->periodic_size << 3);
 return 0;
}

static int disable_periodic(struct oxu_hcd *oxu)
{
 u32 cmd;
 int status;

 /* did setting PSE not take effect yet?
 * takes effect only at frame boundaries...
 */

 status = handshake(oxu, &oxu->regs->status, STS_PSS, STS_PSS, 9 * 125);
 if (status != 0) {
  oxu_to_hcd(oxu)->state = HC_STATE_HALT;
  usb_hc_died(oxu_to_hcd(oxu));
  return status;
 }

 cmd = readl(&oxu->regs->command) & ~CMD_PSE;
 writel(cmd, &oxu->regs->command);
 /* posted write ... */

 oxu->next_uframe = -1;
 return 0;
}

/* periodic schedule slots have iso tds (normal or split) first, then a
 * sparse tree for active interrupt transfers.
 *
 * this just links in a qh; caller guarantees uframe masks are set right.
 * no FSTN support (yet; oxu 0.96+)
 */

static int qh_link_periodic(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 unsigned i;
 unsigned period = qh->period;

 dev_dbg(&qh->dev->dev,
  "link qh%d-%04x/%p start %d [%d/%d us]\n",
  period, le32_to_cpup(&qh->hw_info2) & (QH_CMASK | QH_SMASK),
  qh, qh->start, qh->usecs, qh->c_usecs);

 /* high bandwidth, or otherwise every microframe */
 if (period == 0)
  period = 1;

 for (i = qh->start; i < oxu->periodic_size; i += period) {
  union ehci_shadow *prev = &oxu->pshadow[i];
  __le32   *hw_p = &oxu->periodic[i];
  union ehci_shadow here = *prev;
  __le32   type = 0;

  /* skip the iso nodes at list head */
  while (here.ptr) {
   type = Q_NEXT_TYPE(*hw_p);
   if (type == Q_TYPE_QH)
    break;
   prev = periodic_next_shadow(prev, type);
   hw_p = &here.qh->hw_next;
   here = *prev;
  }

  /* sorting each branch by period (slow-->fast)
 * enables sharing interior tree nodes
 */

  while (here.ptr && qh != here.qh) {
   if (qh->period > here.qh->period)
    break;
   prev = &here.qh->qh_next;
   hw_p = &here.qh->hw_next;
   here = *prev;
  }
  /* link in this qh, unless some earlier pass did that */
  if (qh != here.qh) {
   qh->qh_next = here;
   if (here.qh)
    qh->hw_next = *hw_p;
   wmb();
   prev->qh = qh;
   *hw_p = QH_NEXT(qh->qh_dma);
  }
 }
 qh->qh_state = QH_STATE_LINKED;
 qh_get(qh);

 /* update per-qh bandwidth for usbfs */
 oxu_to_hcd(oxu)->self.bandwidth_allocated += qh->period
  ? ((qh->usecs + qh->c_usecs) / qh->period)
  : (qh->usecs * 8);

 /* maybe enable periodic schedule processing */
 if (!oxu->periodic_sched++)
  return enable_periodic(oxu);

 return 0;
}

static void qh_unlink_periodic(struct oxu_hcd *oxu, struct ehci_qh *qh)
{
 unsigned i;
 unsigned period;

 /* FIXME:
 *   IF this isn't high speed
 *   and this qh is active in the current uframe
 *   (and overlay token SplitXstate is false?)
 * THEN
 *   qh->hw_info1 |= cpu_to_le32(1 << 7 "ignore");
 */


 /* high bandwidth, or otherwise part of every microframe */
 period = qh->period;
 if (period == 0)
  period = 1;

 for (i = qh->start; i < oxu->periodic_size; i += period)
  periodic_unlink(oxu, i, qh);

 /* update per-qh bandwidth for usbfs */
 oxu_to_hcd(oxu)->self.bandwidth_allocated -= qh->period
  ? ((qh->usecs + qh->c_usecs) / qh->period)
  : (qh->usecs * 8);

 dev_dbg(&qh->dev->dev,
  "unlink qh%d-%04x/%p start %d [%d/%d us]\n",
  qh->period,
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=91 H=92 G=91

¤ Dauer der Verarbeitung: 0.77 Sekunden  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....
    

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge