Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/drivers/net/wireless/intel/iwlegacy/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 103 kB image not shown  

Quelle  3945-mac.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-only
/******************************************************************************
 *
 * Copyright(c) 2003 - 2011 Intel Corporation. All rights reserved.
 *
 * Portions of this file are derived from the ipw3945 project, as well
 * as portions of the ieee80211 subsystem header files.
 *
 * Contact Information:
 *  Intel Linux Wireless <ilw@linux.intel.com>
 * Intel Corporation, 5200 N.E. Elam Young Parkway, Hillsboro, OR 97124-6497
 *
 *****************************************************************************/


#define pr_fmt(fmt) KBUILD_MODNAME ": " fmt

#include <linux/kernel.h>
#include <linux/module.h>
#include <linux/init.h>
#include <linux/pci.h>
#include <linux/slab.h>
#include <linux/dma-mapping.h>
#include <linux/delay.h>
#include <linux/sched.h>
#include <linux/skbuff.h>
#include <linux/netdevice.h>
#include <linux/firmware.h>
#include <linux/etherdevice.h>
#include <linux/if_arp.h>

#include <net/ieee80211_radiotap.h>
#include <net/mac80211.h>

#include <asm/div64.h>

#define DRV_NAME "iwl3945"

#include "commands.h"
#include "common.h"
#include "3945.h"
#include "iwl-spectrum.h"

/*
 * module name, copyright, version, etc.
 */


#define DRV_DESCRIPTION \
"Intel(R) PRO/Wireless 3945ABG/BG Network Connection driver for Linux"

#ifdef CONFIG_IWLEGACY_DEBUG
#define VD "d"
#else
#define VD
#endif

/*
 * add "s" to indicate spectrum measurement included.
 * we add it here to be consistent with previous releases in which
 * this was configurable.
 */

#define DRV_VERSION  IWLWIFI_VERSION VD "s"
#define DRV_COPYRIGHT "Copyright(c) 2003-2011 Intel Corporation"
#define DRV_AUTHOR     ""

MODULE_DESCRIPTION(DRV_DESCRIPTION);
MODULE_VERSION(DRV_VERSION);
MODULE_AUTHOR(DRV_COPYRIGHT " " DRV_AUTHOR);
MODULE_LICENSE("GPL");

 /* module parameters */
struct il_mod_params il3945_mod_params = {
 .sw_crypto = 1,
 .restart_fw = 1,
 .disable_hw_scan = 1,
 /* the rest are 0 by default */
};

/**
 * il3945_get_antenna_flags - Get antenna flags for RXON command
 * @il: eeprom and antenna fields are used to determine antenna flags
 *
 * il->eeprom39  is used to determine if antenna AUX/MAIN are reversed
 * il3945_mod_params.antenna specifies the antenna diversity mode:
 *
 * IL_ANTENNA_DIVERSITY - NIC selects best antenna by itself
 * IL_ANTENNA_MAIN      - Force MAIN antenna
 * IL_ANTENNA_AUX       - Force AUX antenna
 */

__le32
il3945_get_antenna_flags(const struct il_priv *il)
{
 struct il3945_eeprom *eeprom = (struct il3945_eeprom *)il->eeprom;

 switch (il3945_mod_params.antenna) {
 case IL_ANTENNA_DIVERSITY:
  return 0;

 case IL_ANTENNA_MAIN:
  if (eeprom->antenna_switch_type)
   return RXON_FLG_DIS_DIV_MSK | RXON_FLG_ANT_B_MSK;
  return RXON_FLG_DIS_DIV_MSK | RXON_FLG_ANT_A_MSK;

 case IL_ANTENNA_AUX:
  if (eeprom->antenna_switch_type)
   return RXON_FLG_DIS_DIV_MSK | RXON_FLG_ANT_A_MSK;
  return RXON_FLG_DIS_DIV_MSK | RXON_FLG_ANT_B_MSK;
 }

 /* bad antenna selector value */
 IL_ERR("Bad antenna selector value (0x%x)\n",
        il3945_mod_params.antenna);

 return 0;  /* "diversity" is default if error */
}

static int
il3945_set_ccmp_dynamic_key_info(struct il_priv *il,
     struct ieee80211_key_conf *keyconf, u8 sta_id)
{
 unsigned long flags;
 __le16 key_flags = 0;
 int ret;

 key_flags |= (STA_KEY_FLG_CCMP | STA_KEY_FLG_MAP_KEY_MSK);
 key_flags |= cpu_to_le16(keyconf->keyidx << STA_KEY_FLG_KEYID_POS);

 if (sta_id == il->hw_params.bcast_id)
  key_flags |= STA_KEY_MULTICAST_MSK;

 keyconf->flags |= IEEE80211_KEY_FLAG_GENERATE_IV;
 keyconf->hw_key_idx = keyconf->keyidx;
 key_flags &= ~STA_KEY_FLG_INVALID;

 spin_lock_irqsave(&il->sta_lock, flags);
 il->stations[sta_id].keyinfo.cipher = keyconf->cipher;
 il->stations[sta_id].keyinfo.keylen = keyconf->keylen;
 memcpy(il->stations[sta_id].keyinfo.key, keyconf->key, keyconf->keylen);

 memcpy(il->stations[sta_id].sta.key.key, keyconf->key, keyconf->keylen);

 if ((il->stations[sta_id].sta.key.
      key_flags & STA_KEY_FLG_ENCRYPT_MSK) == STA_KEY_FLG_NO_ENC)
  il->stations[sta_id].sta.key.key_offset =
      il_get_free_ucode_key_idx(il);
 /* else, we are overriding an existing key => no need to allocated room
 * in uCode. */


 WARN(il->stations[sta_id].sta.key.key_offset == WEP_INVALID_OFFSET,
      "no space for a new key");

 il->stations[sta_id].sta.key.key_flags = key_flags;
 il->stations[sta_id].sta.sta.modify_mask = STA_MODIFY_KEY_MASK;
 il->stations[sta_id].sta.mode = STA_CONTROL_MODIFY_MSK;

 D_INFO("hwcrypto: modify ucode station key info\n");

 ret = il_send_add_sta(il, &il->stations[sta_id].sta, CMD_ASYNC);

 spin_unlock_irqrestore(&il->sta_lock, flags);

 return ret;
}

static int
il3945_set_tkip_dynamic_key_info(struct il_priv *il,
     struct ieee80211_key_conf *keyconf, u8 sta_id)
{
 return -EOPNOTSUPP;
}

static int
il3945_set_wep_dynamic_key_info(struct il_priv *il,
    struct ieee80211_key_conf *keyconf, u8 sta_id)
{
 return -EOPNOTSUPP;
}

static int
il3945_clear_sta_key_info(struct il_priv *il, u8 sta_id)
{
 unsigned long flags;
 struct il_addsta_cmd sta_cmd;

 spin_lock_irqsave(&il->sta_lock, flags);
 memset(&il->stations[sta_id].keyinfo, 0, sizeof(struct il_hw_key));
 memset(&il->stations[sta_id].sta.key, 0, sizeof(struct il4965_keyinfo));
 il->stations[sta_id].sta.key.key_flags = STA_KEY_FLG_NO_ENC;
 il->stations[sta_id].sta.sta.modify_mask = STA_MODIFY_KEY_MASK;
 il->stations[sta_id].sta.mode = STA_CONTROL_MODIFY_MSK;
 memcpy(&sta_cmd, &il->stations[sta_id].sta,
        sizeof(struct il_addsta_cmd));
 spin_unlock_irqrestore(&il->sta_lock, flags);

 D_INFO("hwcrypto: clear ucode station key info\n");
 return il_send_add_sta(il, &sta_cmd, CMD_SYNC);
}

static int
il3945_set_dynamic_key(struct il_priv *il, struct ieee80211_key_conf *keyconf,
         u8 sta_id)
{
 int ret = 0;

 keyconf->hw_key_idx = HW_KEY_DYNAMIC;

 switch (keyconf->cipher) {
 case WLAN_CIPHER_SUITE_CCMP:
  ret = il3945_set_ccmp_dynamic_key_info(il, keyconf, sta_id);
  break;
 case WLAN_CIPHER_SUITE_TKIP:
  ret = il3945_set_tkip_dynamic_key_info(il, keyconf, sta_id);
  break;
 case WLAN_CIPHER_SUITE_WEP40:
 case WLAN_CIPHER_SUITE_WEP104:
  ret = il3945_set_wep_dynamic_key_info(il, keyconf, sta_id);
  break;
 default:
  IL_ERR("Unknown alg: %s alg=%x\n", __func__, keyconf->cipher);
  ret = -EINVAL;
 }

 D_WEP("Set dynamic key: alg=%x len=%d idx=%d sta=%d ret=%d\n",
       keyconf->cipher, keyconf->keylen, keyconf->keyidx, sta_id, ret);

 return ret;
}

static int
il3945_remove_static_key(struct il_priv *il)
{
 return -EOPNOTSUPP;
}

static int
il3945_set_static_key(struct il_priv *il, struct ieee80211_key_conf *key)
{
 if (key->cipher == WLAN_CIPHER_SUITE_WEP40 ||
     key->cipher == WLAN_CIPHER_SUITE_WEP104)
  return -EOPNOTSUPP;

 IL_ERR("Static key invalid: cipher %x\n", key->cipher);
 return -EINVAL;
}

static void
il3945_clear_free_frames(struct il_priv *il)
{
 struct list_head *element;

 D_INFO("%d frames on pre-allocated heap on clear.\n", il->frames_count);

 while (!list_empty(&il->free_frames)) {
  element = il->free_frames.next;
  list_del(element);
  kfree(list_entry(element, struct il3945_frame, list));
  il->frames_count--;
 }

 if (il->frames_count) {
  IL_WARN("%d frames still in use. Did we lose one?\n",
   il->frames_count);
  il->frames_count = 0;
 }
}

static struct il3945_frame *
il3945_get_free_frame(struct il_priv *il)
{
 struct il3945_frame *frame;
 struct list_head *element;
 if (list_empty(&il->free_frames)) {
  frame = kzalloc(sizeof(*frame), GFP_KERNEL);
  if (!frame) {
   IL_ERR("Could not allocate frame!\n");
   return NULL;
  }

  il->frames_count++;
  return frame;
 }

 element = il->free_frames.next;
 list_del(element);
 return list_entry(element, struct il3945_frame, list);
}

static void
il3945_free_frame(struct il_priv *il, struct il3945_frame *frame)
{
 memset(frame, 0, sizeof(*frame));
 list_add(&frame->list, &il->free_frames);
}

unsigned int
il3945_fill_beacon_frame(struct il_priv *il, struct ieee80211_hdr *hdr,
    int left)
{

 if (!il_is_associated(il) || !il->beacon_skb)
  return 0;

 if (il->beacon_skb->len > left)
  return 0;

 memcpy(hdr, il->beacon_skb->data, il->beacon_skb->len);

 return il->beacon_skb->len;
}

static int
il3945_send_beacon_cmd(struct il_priv *il)
{
 struct il3945_frame *frame;
 unsigned int frame_size;
 int rc;
 u8 rate;

 frame = il3945_get_free_frame(il);

 if (!frame) {
  IL_ERR("Could not obtain free frame buffer for beacon "
         "command.\n");
  return -ENOMEM;
 }

 rate = il_get_lowest_plcp(il);

 frame_size = il3945_hw_get_beacon_cmd(il, frame, rate);

 rc = il_send_cmd_pdu(il, C_TX_BEACON, frame_size, &frame->u.cmd[0]);

 il3945_free_frame(il, frame);

 return rc;
}

static void
il3945_unset_hw_params(struct il_priv *il)
{
 if (il->_3945.shared_virt)
  dma_free_coherent(&il->pci_dev->dev,
      sizeof(struct il3945_shared),
      il->_3945.shared_virt, il->_3945.shared_phys);
}

static void
il3945_build_tx_cmd_hwcrypto(struct il_priv *il, struct ieee80211_tx_info *info,
        struct il_device_cmd *cmd,
        struct sk_buff *skb_frag, int sta_id)
{
 struct il3945_tx_cmd *tx_cmd = (struct il3945_tx_cmd *)cmd->cmd.payload;
 struct il_hw_key *keyinfo = &il->stations[sta_id].keyinfo;

 tx_cmd->sec_ctl = 0;

 switch (keyinfo->cipher) {
 case WLAN_CIPHER_SUITE_CCMP:
  tx_cmd->sec_ctl = TX_CMD_SEC_CCM;
  memcpy(tx_cmd->key, keyinfo->key, keyinfo->keylen);
  D_TX("tx_cmd with AES hwcrypto\n");
  break;

 case WLAN_CIPHER_SUITE_TKIP:
  break;

 case WLAN_CIPHER_SUITE_WEP104:
  tx_cmd->sec_ctl |= TX_CMD_SEC_KEY128;
  fallthrough;
 case WLAN_CIPHER_SUITE_WEP40:
  tx_cmd->sec_ctl |=
      TX_CMD_SEC_WEP | (info->control.hw_key->
          hw_key_idx & TX_CMD_SEC_MSK) <<
      TX_CMD_SEC_SHIFT;

  memcpy(&tx_cmd->key[3], keyinfo->key, keyinfo->keylen);

  D_TX("Configuring packet for WEP encryption " "with key %d\n",
       info->control.hw_key->hw_key_idx);
  break;

 default:
  IL_ERR("Unknown encode cipher %x\n", keyinfo->cipher);
  break;
 }
}

/*
 * handle build C_TX command notification.
 */

static void
il3945_build_tx_cmd_basic(struct il_priv *il, struct il_device_cmd *cmd,
     struct ieee80211_tx_info *info,
     struct ieee80211_hdr *hdr, u8 std_id)
{
 struct il3945_tx_cmd *tx_cmd = (struct il3945_tx_cmd *)cmd->cmd.payload;
 __le32 tx_flags = tx_cmd->tx_flags;
 __le16 fc = hdr->frame_control;

 tx_cmd->stop_time.life_time = TX_CMD_LIFE_TIME_INFINITE;
 if (!(info->flags & IEEE80211_TX_CTL_NO_ACK)) {
  tx_flags |= TX_CMD_FLG_ACK_MSK;
  if (ieee80211_is_mgmt(fc))
   tx_flags |= TX_CMD_FLG_SEQ_CTL_MSK;
  if (ieee80211_is_probe_resp(fc) &&
      !(le16_to_cpu(hdr->seq_ctrl) & 0xf))
   tx_flags |= TX_CMD_FLG_TSF_MSK;
 } else {
  tx_flags &= (~TX_CMD_FLG_ACK_MSK);
  tx_flags |= TX_CMD_FLG_SEQ_CTL_MSK;
 }

 tx_cmd->sta_id = std_id;
 if (ieee80211_has_morefrags(fc))
  tx_flags |= TX_CMD_FLG_MORE_FRAG_MSK;

 if (ieee80211_is_data_qos(fc)) {
  u8 *qc = ieee80211_get_qos_ctl(hdr);
  tx_cmd->tid_tspec = qc[0] & 0xf;
  tx_flags &= ~TX_CMD_FLG_SEQ_CTL_MSK;
 } else {
  tx_flags |= TX_CMD_FLG_SEQ_CTL_MSK;
 }

 il_tx_cmd_protection(il, info, fc, &tx_flags);

 tx_flags &= ~(TX_CMD_FLG_ANT_SEL_MSK);
 if (ieee80211_is_mgmt(fc)) {
  if (ieee80211_is_assoc_req(fc) || ieee80211_is_reassoc_req(fc))
   tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(3);
  else
   tx_cmd->timeout.pm_frame_timeout = cpu_to_le16(2);
 } else {
  tx_cmd->timeout.pm_frame_timeout = 0;
 }

 tx_cmd->driver_txop = 0;
 tx_cmd->tx_flags = tx_flags;
 tx_cmd->next_frame_len = 0;
}

/*
 * start C_TX command process
 */

static int
il3945_tx_skb(struct il_priv *il,
       struct ieee80211_sta *sta,
       struct sk_buff *skb)
{
 struct ieee80211_hdr *hdr = (struct ieee80211_hdr *)skb->data;
 struct ieee80211_tx_info *info = IEEE80211_SKB_CB(skb);
 struct il3945_tx_cmd *tx_cmd;
 struct il_tx_queue *txq = NULL;
 struct il_queue *q = NULL;
 struct il_device_cmd *out_cmd;
 struct il_cmd_meta *out_meta;
 dma_addr_t phys_addr;
 dma_addr_t txcmd_phys;
 int txq_id = skb_get_queue_mapping(skb);
 u16 len, idx, hdr_len;
 u16 firstlen, secondlen;
 u8 sta_id;
 u8 tid = 0;
 __le16 fc;
 u8 wait_write_ptr = 0;
 unsigned long flags;

 spin_lock_irqsave(&il->lock, flags);
 if (il_is_rfkill(il)) {
  D_DROP("Dropping - RF KILL\n");
  goto drop_unlock;
 }

 if ((ieee80211_get_tx_rate(il->hw, info)->hw_value & 0xFF) ==
     IL_INVALID_RATE) {
  IL_ERR("ERROR: No TX rate available.\n");
  goto drop_unlock;
 }

 fc = hdr->frame_control;

#ifdef CONFIG_IWLEGACY_DEBUG
 if (ieee80211_is_auth(fc))
  D_TX("Sending AUTH frame\n");
 else if (ieee80211_is_assoc_req(fc))
  D_TX("Sending ASSOC frame\n");
 else if (ieee80211_is_reassoc_req(fc))
  D_TX("Sending REASSOC frame\n");
#endif

 spin_unlock_irqrestore(&il->lock, flags);

 hdr_len = ieee80211_hdrlen(fc);

 /* Find idx into station table for destination station */
 sta_id = il_sta_id_or_broadcast(il, sta);
 if (sta_id == IL_INVALID_STATION) {
  D_DROP("Dropping - INVALID STATION: %pM\n", hdr->addr1);
  goto drop;
 }

 D_RATE("station Id %d\n", sta_id);

 if (ieee80211_is_data_qos(fc)) {
  u8 *qc = ieee80211_get_qos_ctl(hdr);
  tid = qc[0] & IEEE80211_QOS_CTL_TID_MASK;
  if (unlikely(tid >= MAX_TID_COUNT))
   goto drop;
 }

 /* Descriptor for chosen Tx queue */
 txq = &il->txq[txq_id];
 q = &txq->q;

 if ((il_queue_space(q) < q->high_mark))
  goto drop;

 spin_lock_irqsave(&il->lock, flags);

 idx = il_get_cmd_idx(q, q->write_ptr, 0);

 txq->skbs[q->write_ptr] = skb;

 /* Init first empty entry in queue's array of Tx/cmd buffers */
 out_cmd = txq->cmd[idx];
 out_meta = &txq->meta[idx];
 tx_cmd = (struct il3945_tx_cmd *)out_cmd->cmd.payload;
 memset(&out_cmd->hdr, 0, sizeof(out_cmd->hdr));
 memset(tx_cmd, 0, sizeof(*tx_cmd));

 /*
 * Set up the Tx-command (not MAC!) header.
 * Store the chosen Tx queue and TFD idx within the sequence field;
 * after Tx, uCode's Tx response will return this value so driver can
 * locate the frame within the tx queue and do post-tx processing.
 */

 out_cmd->hdr.cmd = C_TX;
 out_cmd->hdr.sequence =
     cpu_to_le16((u16)
   (QUEUE_TO_SEQ(txq_id) | IDX_TO_SEQ(q->write_ptr)));

 /* Copy MAC header from skb into command buffer */
 memcpy(tx_cmd->hdr, hdr, hdr_len);

 if (info->control.hw_key)
  il3945_build_tx_cmd_hwcrypto(il, info, out_cmd, skb, sta_id);

 /* TODO need this for burst mode later on */
 il3945_build_tx_cmd_basic(il, out_cmd, info, hdr, sta_id);

 il3945_hw_build_tx_cmd_rate(il, out_cmd, info, hdr, sta_id);

 /* Total # bytes to be transmitted */
 tx_cmd->len = cpu_to_le16((u16) skb->len);

 tx_cmd->tx_flags &= ~TX_CMD_FLG_ANT_A_MSK;
 tx_cmd->tx_flags &= ~TX_CMD_FLG_ANT_B_MSK;

 /*
 * Use the first empty entry in this queue's command buffer array
 * to contain the Tx command and MAC header concatenated together
 * (payload data will be in another buffer).
 * Size of this varies, due to varying MAC header length.
 * If end is not dword aligned, we'll have 2 extra bytes at the end
 * of the MAC header (device reads on dword boundaries).
 * We'll tell device about this padding later.
 */

 len =
     sizeof(struct il3945_tx_cmd) + sizeof(struct il_cmd_header) +
     hdr_len;
 firstlen = (len + 3) & ~3;

 /* Physical address of this Tx command's header (not MAC header!),
 * within command buffer array. */

 txcmd_phys = dma_map_single(&il->pci_dev->dev, &out_cmd->hdr, firstlen,
        DMA_TO_DEVICE);
 if (unlikely(dma_mapping_error(&il->pci_dev->dev, txcmd_phys)))
  goto drop_unlock;

 /* Set up TFD's 2nd entry to point directly to remainder of skb,
 * if any (802.11 null frames have no payload). */

 secondlen = skb->len - hdr_len;
 if (secondlen > 0) {
  phys_addr = dma_map_single(&il->pci_dev->dev, skb->data + hdr_len,
        secondlen, DMA_TO_DEVICE);
  if (unlikely(dma_mapping_error(&il->pci_dev->dev, phys_addr)))
   goto drop_unlock;
 }

 /* Add buffer containing Tx command and MAC(!) header to TFD's
 * first entry */

 il->ops->txq_attach_buf_to_tfd(il, txq, txcmd_phys, firstlen, 1, 0);
 dma_unmap_addr_set(out_meta, mapping, txcmd_phys);
 dma_unmap_len_set(out_meta, len, firstlen);
 if (secondlen > 0)
  il->ops->txq_attach_buf_to_tfd(il, txq, phys_addr, secondlen, 0,
            U32_PAD(secondlen));

 if (!ieee80211_has_morefrags(hdr->frame_control)) {
  txq->need_update = 1;
 } else {
  wait_write_ptr = 1;
  txq->need_update = 0;
 }

 il_update_stats(il, true, fc, skb->len);

 D_TX("sequence nr = 0X%x\n", le16_to_cpu(out_cmd->hdr.sequence));
 D_TX("tx_flags = 0X%x\n", le32_to_cpu(tx_cmd->tx_flags));
 il_print_hex_dump(il, IL_DL_TX, tx_cmd, sizeof(*tx_cmd));
 il_print_hex_dump(il, IL_DL_TX, (u8 *) tx_cmd->hdr,
     ieee80211_hdrlen(fc));

 /* Tell device the write idx *just past* this latest filled TFD */
 q->write_ptr = il_queue_inc_wrap(q->write_ptr, q->n_bd);
 il_txq_update_write_ptr(il, txq);
 spin_unlock_irqrestore(&il->lock, flags);

 if (il_queue_space(q) < q->high_mark && il->mac80211_registered) {
  if (wait_write_ptr) {
   spin_lock_irqsave(&il->lock, flags);
   txq->need_update = 1;
   il_txq_update_write_ptr(il, txq);
   spin_unlock_irqrestore(&il->lock, flags);
  }

  il_stop_queue(il, txq);
 }

 return 0;

drop_unlock:
 spin_unlock_irqrestore(&il->lock, flags);
drop:
 return -1;
}

static int
il3945_get_measurement(struct il_priv *il,
         struct ieee80211_measurement_params *params, u8 type)
{
 struct il_spectrum_cmd spectrum;
 struct il_rx_pkt *pkt;
 struct il_host_cmd cmd = {
  .id = C_SPECTRUM_MEASUREMENT,
  .data = (void *)&spectrum,
  .flags = CMD_WANT_SKB,
 };
 u32 add_time = le64_to_cpu(params->start_time);
 int rc;
 int spectrum_resp_status;
 int duration = le16_to_cpu(params->duration);

 if (il_is_associated(il))
  add_time =
      il_usecs_to_beacons(il,
     le64_to_cpu(params->start_time) -
     il->_3945.last_tsf,
     le16_to_cpu(il->timing.beacon_interval));

 memset(&spectrum, 0, sizeof(spectrum));

 spectrum.channel_count = cpu_to_le16(1);
 spectrum.flags =
     RXON_FLG_TSF2HOST_MSK | RXON_FLG_ANT_A_MSK | RXON_FLG_DIS_DIV_MSK;
 spectrum.filter_flags = MEASUREMENT_FILTER_FLAG;
 cmd.len = sizeof(spectrum);
 spectrum.len = cpu_to_le16(cmd.len - sizeof(spectrum.len));

 if (il_is_associated(il))
  spectrum.start_time =
      il_add_beacon_time(il, il->_3945.last_beacon_time, add_time,
           le16_to_cpu(il->timing.beacon_interval));
 else
  spectrum.start_time = 0;

 spectrum.channels[0].duration = cpu_to_le32(duration * TIME_UNIT);
 spectrum.channels[0].channel = params->channel;
 spectrum.channels[0].type = type;
 if (il->active.flags & RXON_FLG_BAND_24G_MSK)
  spectrum.flags |=
      RXON_FLG_BAND_24G_MSK | RXON_FLG_AUTO_DETECT_MSK |
      RXON_FLG_TGG_PROTECT_MSK;

 rc = il_send_cmd_sync(il, &cmd);
 if (rc)
  return rc;

 pkt = (struct il_rx_pkt *)cmd.reply_page;
 if (pkt->hdr.flags & IL_CMD_FAILED_MSK) {
  IL_ERR("Bad return from N_RX_ON_ASSOC command\n");
  rc = -EIO;
 }

 spectrum_resp_status = le16_to_cpu(pkt->u.spectrum.status);
 switch (spectrum_resp_status) {
 case 0:  /* Command will be handled */
  if (pkt->u.spectrum.id != 0xff) {
   D_INFO("Replaced existing measurement: %d\n",
          pkt->u.spectrum.id);
   il->measurement_status &= ~MEASUREMENT_READY;
  }
  il->measurement_status |= MEASUREMENT_ACTIVE;
  rc = 0;
  break;

 case 1:  /* Command will not be handled */
  rc = -EAGAIN;
  break;
 }

 il_free_pages(il, cmd.reply_page);

 return rc;
}

static void
il3945_hdl_alive(struct il_priv *il, struct il_rx_buf *rxb)
{
 struct il_rx_pkt *pkt = rxb_addr(rxb);
 struct il_alive_resp *palive;
 struct delayed_work *pwork;

 palive = &pkt->u.alive_frame;

 D_INFO("Alive ucode status 0x%08X revision " "0x%01X 0x%01X\n",
        palive->is_valid, palive->ver_type, palive->ver_subtype);

 if (palive->ver_subtype == INITIALIZE_SUBTYPE) {
  D_INFO("Initialization Alive received.\n");
  memcpy(&il->card_alive_init, &pkt->u.alive_frame,
         sizeof(struct il_alive_resp));
  pwork = &il->init_alive_start;
 } else {
  D_INFO("Runtime Alive received.\n");
  memcpy(&il->card_alive, &pkt->u.alive_frame,
         sizeof(struct il_alive_resp));
  pwork = &il->alive_start;
  il3945_disable_events(il);
 }

 /* We delay the ALIVE response by 5ms to
 * give the HW RF Kill time to activate... */

 if (palive->is_valid == UCODE_VALID_OK)
  queue_delayed_work(il->workqueue, pwork, msecs_to_jiffies(5));
 else
  IL_WARN("uCode did not respond OK.\n");
}

static void
il3945_hdl_add_sta(struct il_priv *il, struct il_rx_buf *rxb)
{
 struct il_rx_pkt *pkt = rxb_addr(rxb);

 D_RX("Received C_ADD_STA: 0x%02X\n", pkt->u.status);
}

static void
il3945_hdl_beacon(struct il_priv *il, struct il_rx_buf *rxb)
{
 struct il_rx_pkt *pkt = rxb_addr(rxb);
 struct il3945_beacon_notif *beacon = &(pkt->u.beacon_status);
#ifdef CONFIG_IWLEGACY_DEBUG
 u8 rate = beacon->beacon_notify_hdr.rate;

 D_RX("beacon status %x retries %d iss %d " "tsf %d %d rate %d\n",
      le32_to_cpu(beacon->beacon_notify_hdr.status) & TX_STATUS_MSK,
      beacon->beacon_notify_hdr.failure_frame,
      le32_to_cpu(beacon->ibss_mgr_status),
      le32_to_cpu(beacon->high_tsf), le32_to_cpu(beacon->low_tsf), rate);
#endif

 il->ibss_manager = le32_to_cpu(beacon->ibss_mgr_status);

}

/* Handle notification from uCode that card's power state is changing
 * due to software, hardware, or critical temperature RFKILL */

static void
il3945_hdl_card_state(struct il_priv *il, struct il_rx_buf *rxb)
{
 struct il_rx_pkt *pkt = rxb_addr(rxb);
 u32 flags = le32_to_cpu(pkt->u.card_state_notif.flags);
 unsigned long status = il->status;

 IL_WARN("Card state received: HW:%s SW:%s\n",
  (flags & HW_CARD_DISABLED) ? "Kill" : "On",
  (flags & SW_CARD_DISABLED) ? "Kill" : "On");

 _il_wr(il, CSR_UCODE_DRV_GP1_SET, CSR_UCODE_DRV_GP1_BIT_CMD_BLOCKED);

 if (flags & HW_CARD_DISABLED)
  set_bit(S_RFKILL, &il->status);
 else
  clear_bit(S_RFKILL, &il->status);

 il_scan_cancel(il);

 if ((test_bit(S_RFKILL, &status) !=
      test_bit(S_RFKILL, &il->status)))
  wiphy_rfkill_set_hw_state(il->hw->wiphy,
       test_bit(S_RFKILL, &il->status));
 else
  wake_up(&il->wait_command_queue);
}

/*
 * il3945_setup_handlers - Initialize Rx handler callbacks
 *
 * Setup the RX handlers for each of the reply types sent from the uCode
 * to the host.
 *
 * This function chains into the hardware specific files for them to setup
 * any hardware specific handlers as well.
 */

static void
il3945_setup_handlers(struct il_priv *il)
{
 il->handlers[N_ALIVE] = il3945_hdl_alive;
 il->handlers[C_ADD_STA] = il3945_hdl_add_sta;
 il->handlers[N_ERROR] = il_hdl_error;
 il->handlers[N_CHANNEL_SWITCH] = il_hdl_csa;
 il->handlers[N_SPECTRUM_MEASUREMENT] = il_hdl_spectrum_measurement;
 il->handlers[N_PM_SLEEP] = il_hdl_pm_sleep;
 il->handlers[N_PM_DEBUG_STATS] = il_hdl_pm_debug_stats;
 il->handlers[N_BEACON] = il3945_hdl_beacon;

 /*
 * The same handler is used for both the REPLY to a discrete
 * stats request from the host as well as for the periodic
 * stats notifications (after received beacons) from the uCode.
 */

 il->handlers[C_STATS] = il3945_hdl_c_stats;
 il->handlers[N_STATS] = il3945_hdl_stats;

 il_setup_rx_scan_handlers(il);
 il->handlers[N_CARD_STATE] = il3945_hdl_card_state;

 /* Set up hardware specific Rx handlers */
 il3945_hw_handler_setup(il);
}

/************************** RX-FUNCTIONS ****************************/
/*
 * Rx theory of operation
 *
 * The host allocates 32 DMA target addresses and passes the host address
 * to the firmware at register IL_RFDS_TBL_LOWER + N * RFD_SIZE where N is
 * 0 to 31
 *
 * Rx Queue Indexes
 * The host/firmware share two idx registers for managing the Rx buffers.
 *
 * The READ idx maps to the first position that the firmware may be writing
 * to -- the driver can read up to (but not including) this position and get
 * good data.
 * The READ idx is managed by the firmware once the card is enabled.
 *
 * The WRITE idx maps to the last position the driver has read from -- the
 * position preceding WRITE is the last slot the firmware can place a packet.
 *
 * The queue is empty (no good data) if WRITE = READ - 1, and is full if
 * WRITE = READ.
 *
 * During initialization, the host sets up the READ queue position to the first
 * IDX position, and WRITE to the last (READ - 1 wrapped)
 *
 * When the firmware places a packet in a buffer, it will advance the READ idx
 * and fire the RX interrupt.  The driver can then query the READ idx and
 * process as many packets as possible, moving the WRITE idx forward as it
 * resets the Rx queue buffers with new memory.
 *
 * The management in the driver is as follows:
 * + A list of pre-allocated SKBs is stored in iwl->rxq->rx_free.  When
 *   iwl->rxq->free_count drops to or below RX_LOW_WATERMARK, work is scheduled
 *   to replenish the iwl->rxq->rx_free.
 * + In il3945_rx_replenish (scheduled) if 'processed' != 'read' then the
 *   iwl->rxq is replenished and the READ IDX is updated (updating the
 *   'processed' and 'read' driver idxes as well)
 * + A received packet is processed and handed to the kernel network stack,
 *   detached from the iwl->rxq.  The driver 'processed' idx is updated.
 * + The Host/Firmware iwl->rxq is replenished at tasklet time from the rx_free
 *   list. If there are no allocated buffers in iwl->rxq->rx_free, the READ
 *   IDX is not incremented and iwl->status(RX_STALLED) is set.  If there
 *   were enough free buffers and RX_STALLED is set it is cleared.
 *
 *
 * Driver sequence:
 *
 * il3945_rx_replenish()     Replenishes rx_free list from rx_used, and calls
 *                            il3945_rx_queue_restock
 * il3945_rx_queue_restock() Moves available buffers from rx_free into Rx
 *                            queue, updates firmware pointers, and updates
 *                            the WRITE idx.  If insufficient rx_free buffers
 *                            are available, schedules il3945_rx_replenish
 *
 * -- enable interrupts --
 * ISR - il3945_rx()         Detach il_rx_bufs from pool up to the
 *                            READ IDX, detaching the SKB from the pool.
 *                            Moves the packet buffer from queue to rx_used.
 *                            Calls il3945_rx_queue_restock to refill any empty
 *                            slots.
 * ...
 *
 */


/*
 * il3945_dma_addr2rbd_ptr - convert a DMA address to a uCode read buffer ptr
 */

static inline __le32
il3945_dma_addr2rbd_ptr(struct il_priv *il, dma_addr_t dma_addr)
{
 return cpu_to_le32((u32) dma_addr);
}

/*
 * il3945_rx_queue_restock - refill RX queue from pre-allocated pool
 *
 * If there are slots in the RX queue that need to be restocked,
 * and we have free pre-allocated buffers, fill the ranks as much
 * as we can, pulling from rx_free.
 *
 * This moves the 'write' idx forward to catch up with 'processed', and
 * also updates the memory address in the firmware to reference the new
 * target buffer.
 */

static void
il3945_rx_queue_restock(struct il_priv *il)
{
 struct il_rx_queue *rxq = &il->rxq;
 struct list_head *element;
 struct il_rx_buf *rxb;
 unsigned long flags;

 spin_lock_irqsave(&rxq->lock, flags);
 while (il_rx_queue_space(rxq) > 0 && rxq->free_count) {
  /* Get next free Rx buffer, remove from free list */
  element = rxq->rx_free.next;
  rxb = list_entry(element, struct il_rx_buf, list);
  list_del(element);

  /* Point to Rx buffer via next RBD in circular buffer */
  rxq->bd[rxq->write] =
      il3945_dma_addr2rbd_ptr(il, rxb->page_dma);
  rxq->queue[rxq->write] = rxb;
  rxq->write = (rxq->write + 1) & RX_QUEUE_MASK;
  rxq->free_count--;
 }
 spin_unlock_irqrestore(&rxq->lock, flags);
 /* If the pre-allocated buffer pool is dropping low, schedule to
 * refill it */

 if (rxq->free_count <= RX_LOW_WATERMARK)
  queue_work(il->workqueue, &il->rx_replenish);

 /* If we've added more space for the firmware to place data, tell it.
 * Increment device's write pointer in multiples of 8. */

 if (rxq->write_actual != (rxq->write & ~0x7) ||
     abs(rxq->write - rxq->read) > 7) {
  spin_lock_irqsave(&rxq->lock, flags);
  rxq->need_update = 1;
  spin_unlock_irqrestore(&rxq->lock, flags);
  il_rx_queue_update_write_ptr(il, rxq);
 }
}

/*
 * il3945_rx_replenish - Move all used packet from rx_used to rx_free
 *
 * When moving to rx_free an SKB is allocated for the slot.
 *
 * Also restock the Rx queue via il3945_rx_queue_restock.
 * This is called as a scheduled work item (except for during initialization)
 */

static void
il3945_rx_allocate(struct il_priv *il, gfp_t priority)
{
 struct il_rx_queue *rxq = &il->rxq;
 struct list_head *element;
 struct il_rx_buf *rxb;
 struct page *page;
 dma_addr_t page_dma;
 unsigned long flags;
 gfp_t gfp_mask = priority;

 while (1) {
  spin_lock_irqsave(&rxq->lock, flags);
  if (list_empty(&rxq->rx_used)) {
   spin_unlock_irqrestore(&rxq->lock, flags);
   return;
  }
  spin_unlock_irqrestore(&rxq->lock, flags);

  if (rxq->free_count > RX_LOW_WATERMARK)
   gfp_mask |= __GFP_NOWARN;

  if (il->hw_params.rx_page_order > 0)
   gfp_mask |= __GFP_COMP;

  /* Alloc a new receive buffer */
  page = alloc_pages(gfp_mask, il->hw_params.rx_page_order);
  if (!page) {
   if (net_ratelimit())
    D_INFO("Failed to allocate SKB buffer.\n");
   if (rxq->free_count <= RX_LOW_WATERMARK &&
       net_ratelimit())
    IL_ERR("Failed to allocate SKB buffer with %0x."
           "Only %u free buffers remaining.\n",
           priority, rxq->free_count);
   /* We don't reschedule replenish work here -- we will
 * call the restock method and if it still needs
 * more buffers it will schedule replenish */

   break;
  }

  /* Get physical address of RB/SKB */
  page_dma =
      dma_map_page(&il->pci_dev->dev, page, 0,
     PAGE_SIZE << il->hw_params.rx_page_order,
     DMA_FROM_DEVICE);

  if (unlikely(dma_mapping_error(&il->pci_dev->dev, page_dma))) {
   __free_pages(page, il->hw_params.rx_page_order);
   break;
  }

  spin_lock_irqsave(&rxq->lock, flags);

  if (list_empty(&rxq->rx_used)) {
   spin_unlock_irqrestore(&rxq->lock, flags);
   dma_unmap_page(&il->pci_dev->dev, page_dma,
           PAGE_SIZE << il->hw_params.rx_page_order,
           DMA_FROM_DEVICE);
   __free_pages(page, il->hw_params.rx_page_order);
   return;
  }

  element = rxq->rx_used.next;
  rxb = list_entry(element, struct il_rx_buf, list);
  list_del(element);

  rxb->page = page;
  rxb->page_dma = page_dma;
  list_add_tail(&rxb->list, &rxq->rx_free);
  rxq->free_count++;
  il->alloc_rxb_page++;

  spin_unlock_irqrestore(&rxq->lock, flags);
 }
}

void
il3945_rx_queue_reset(struct il_priv *il, struct il_rx_queue *rxq)
{
 unsigned long flags;
 int i;
 spin_lock_irqsave(&rxq->lock, flags);
 INIT_LIST_HEAD(&rxq->rx_free);
 INIT_LIST_HEAD(&rxq->rx_used);
 /* Fill the rx_used queue with _all_ of the Rx buffers */
 for (i = 0; i < RX_FREE_BUFFERS + RX_QUEUE_SIZE; i++) {
  /* In the reset function, these buffers may have been allocated
 * to an SKB, so we need to unmap and free potential storage */

  if (rxq->pool[i].page != NULL) {
   dma_unmap_page(&il->pci_dev->dev,
           rxq->pool[i].page_dma,
           PAGE_SIZE << il->hw_params.rx_page_order,
           DMA_FROM_DEVICE);
   __il_free_pages(il, rxq->pool[i].page);
   rxq->pool[i].page = NULL;
  }
  list_add_tail(&rxq->pool[i].list, &rxq->rx_used);
 }

 /* Set us so that we have processed and used all buffers, but have
 * not restocked the Rx queue with fresh buffers */

 rxq->read = rxq->write = 0;
 rxq->write_actual = 0;
 rxq->free_count = 0;
 spin_unlock_irqrestore(&rxq->lock, flags);
}

void
il3945_rx_replenish(void *data)
{
 struct il_priv *il = data;
 unsigned long flags;

 il3945_rx_allocate(il, GFP_KERNEL);

 spin_lock_irqsave(&il->lock, flags);
 il3945_rx_queue_restock(il);
 spin_unlock_irqrestore(&il->lock, flags);
}

static void
il3945_rx_replenish_now(struct il_priv *il)
{
 il3945_rx_allocate(il, GFP_ATOMIC);

 il3945_rx_queue_restock(il);
}

/* Assumes that the skb field of the buffers in 'pool' is kept accurate.
 * If an SKB has been detached, the POOL needs to have its SKB set to NULL
 * This free routine walks the list of POOL entries and if SKB is set to
 * non NULL it is unmapped and freed
 */

static void
il3945_rx_queue_free(struct il_priv *il, struct il_rx_queue *rxq)
{
 int i;
 for (i = 0; i < RX_QUEUE_SIZE + RX_FREE_BUFFERS; i++) {
  if (rxq->pool[i].page != NULL) {
   dma_unmap_page(&il->pci_dev->dev,
           rxq->pool[i].page_dma,
           PAGE_SIZE << il->hw_params.rx_page_order,
           DMA_FROM_DEVICE);
   __il_free_pages(il, rxq->pool[i].page);
   rxq->pool[i].page = NULL;
  }
 }

 dma_free_coherent(&il->pci_dev->dev, 4 * RX_QUEUE_SIZE, rxq->bd,
     rxq->bd_dma);
 dma_free_coherent(&il->pci_dev->dev, sizeof(struct il_rb_status),
     rxq->rb_stts, rxq->rb_stts_dma);
 rxq->bd = NULL;
 rxq->rb_stts = NULL;
}

/*
 * il3945_rx_handle - Main entry function for receiving responses from uCode
 *
 * Uses the il->handlers callback function array to invoke
 * the appropriate handlers, including command responses,
 * frame-received notifications, and other notifications.
 */

static void
il3945_rx_handle(struct il_priv *il)
{
 struct il_rx_buf *rxb;
 struct il_rx_pkt *pkt;
 struct il_rx_queue *rxq = &il->rxq;
 u32 r, i;
 int reclaim;
 unsigned long flags;
 u8 fill_rx = 0;
 u32 count = 8;
 int total_empty = 0;

 /* uCode's read idx (stored in shared DRAM) indicates the last Rx
 * buffer that the driver may process (last buffer filled by ucode). */

 r = le16_to_cpu(rxq->rb_stts->closed_rb_num) & 0x0FFF;
 i = rxq->read;

 /* calculate total frames need to be restock after handling RX */
 total_empty = r - rxq->write_actual;
 if (total_empty < 0)
  total_empty += RX_QUEUE_SIZE;

 if (total_empty > (RX_QUEUE_SIZE / 2))
  fill_rx = 1;
 /* Rx interrupt, but nothing sent from uCode */
 if (i == r)
  D_RX("r = %d, i = %d\n", r, i);

 while (i != r) {
  rxb = rxq->queue[i];

  /* If an RXB doesn't have a Rx queue slot associated with it,
 * then a bug has been introduced in the queue refilling
 * routines -- catch it here */

  BUG_ON(rxb == NULL);

  rxq->queue[i] = NULL;

  dma_unmap_page(&il->pci_dev->dev, rxb->page_dma,
          PAGE_SIZE << il->hw_params.rx_page_order,
          DMA_FROM_DEVICE);
  pkt = rxb_addr(rxb);
  reclaim = il_need_reclaim(il, pkt);

  /* Based on type of command response or notification,
 *   handle those that need handling via function in
 *   handlers table.  See il3945_setup_handlers() */

  if (il->handlers[pkt->hdr.cmd]) {
   D_RX("r = %d, i = %d, %s, 0x%02x\n", r, i,
        il_get_cmd_string(pkt->hdr.cmd), pkt->hdr.cmd);
   il->isr_stats.handlers[pkt->hdr.cmd]++;
   il->handlers[pkt->hdr.cmd] (il, rxb);
  } else {
   /* No handling needed */
   D_RX("r %d i %d No handler needed for %s, 0x%02x\n", r,
        i, il_get_cmd_string(pkt->hdr.cmd), pkt->hdr.cmd);
  }

  /*
 * XXX: After here, we should always check rxb->page
 * against NULL before touching it or its virtual
 * memory (pkt). Because some handler might have
 * already taken or freed the pages.
 */


  if (reclaim) {
   /* Invoke any callbacks, transfer the buffer to caller,
 * and fire off the (possibly) blocking il_send_cmd()
 * as we reclaim the driver command queue */

   if (rxb->page)
    il_tx_cmd_complete(il, rxb);
   else
    IL_WARN("Claim null rxb?\n");
  }

  /* Reuse the page if possible. For notification packets and
 * SKBs that fail to Rx correctly, add them back into the
 * rx_free list for reuse later. */

  spin_lock_irqsave(&rxq->lock, flags);
  if (rxb->page != NULL) {
   rxb->page_dma =
       dma_map_page(&il->pci_dev->dev, rxb->page, 0,
      PAGE_SIZE << il->hw_params.rx_page_order,
      DMA_FROM_DEVICE);
   if (unlikely(dma_mapping_error(&il->pci_dev->dev,
             rxb->page_dma))) {
    __il_free_pages(il, rxb->page);
    rxb->page = NULL;
    list_add_tail(&rxb->list, &rxq->rx_used);
   } else {
    list_add_tail(&rxb->list, &rxq->rx_free);
    rxq->free_count++;
   }
  } else
   list_add_tail(&rxb->list, &rxq->rx_used);

  spin_unlock_irqrestore(&rxq->lock, flags);

  i = (i + 1) & RX_QUEUE_MASK;
  /* If there are a lot of unused frames,
 * restock the Rx queue so ucode won't assert. */

  if (fill_rx) {
   count++;
   if (count >= 8) {
    rxq->read = i;
    il3945_rx_replenish_now(il);
    count = 0;
   }
  }
 }

 /* Backtrack one entry */
 rxq->read = i;
 if (fill_rx)
  il3945_rx_replenish_now(il);
 else
  il3945_rx_queue_restock(il);
}

/* call this function to flush any scheduled tasklet */
static inline void
il3945_synchronize_irq(struct il_priv *il)
{
 /* wait to make sure we flush pending tasklet */
 synchronize_irq(il->pci_dev->irq);
 tasklet_kill(&il->irq_tasklet);
}

static const char *
il3945_desc_lookup(int i)
{
 switch (i) {
 case 1:
  return "FAIL";
 case 2:
  return "BAD_PARAM";
 case 3:
  return "BAD_CHECKSUM";
 case 4:
  return "NMI_INTERRUPT";
 case 5:
  return "SYSASSERT";
 case 6:
  return "FATAL_ERROR";
 }

 return "UNKNOWN";
}

#define ERROR_START_OFFSET  (1 * sizeof(u32))
#define ERROR_ELEM_SIZE     (7 * sizeof(u32))

void
il3945_dump_nic_error_log(struct il_priv *il)
{
 u32 i;
 u32 desc, time, count, base, data1;
 u32 blink1, blink2, ilink1, ilink2;

 base = le32_to_cpu(il->card_alive.error_event_table_ptr);

 if (!il3945_hw_valid_rtc_data_addr(base)) {
  IL_ERR("Not valid error log pointer 0x%08X\n", base);
  return;
 }

 count = il_read_targ_mem(il, base);

 if (ERROR_START_OFFSET <= count * ERROR_ELEM_SIZE) {
  IL_ERR("Start IWL Error Log Dump:\n");
  IL_ERR("Status: 0x%08lX, count: %d\n", il->status, count);
 }

 IL_ERR("Desc Time asrtPC blink2 "
        "ilink1 nmiPC Line\n");
 for (i = ERROR_START_OFFSET;
      i < (count * ERROR_ELEM_SIZE) + ERROR_START_OFFSET;
      i += ERROR_ELEM_SIZE) {
  desc = il_read_targ_mem(il, base + i);
  time = il_read_targ_mem(il, base + i + 1 * sizeof(u32));
  blink1 = il_read_targ_mem(il, base + i + 2 * sizeof(u32));
  blink2 = il_read_targ_mem(il, base + i + 3 * sizeof(u32));
  ilink1 = il_read_targ_mem(il, base + i + 4 * sizeof(u32));
  ilink2 = il_read_targ_mem(il, base + i + 5 * sizeof(u32));
  data1 = il_read_targ_mem(il, base + i + 6 * sizeof(u32));

  IL_ERR("%-13s (0x%X) %010u 0x%05X 0x%05X 0x%05X 0x%05X %u\n\n",
         il3945_desc_lookup(desc), desc, time, blink1, blink2,
         ilink1, ilink2, data1);
 }
}

static void
il3945_irq_tasklet(struct tasklet_struct *t)
{
 struct il_priv *il = from_tasklet(il, t, irq_tasklet);
 u32 inta, handled = 0;
 u32 inta_fh;
 unsigned long flags;
#ifdef CONFIG_IWLEGACY_DEBUG
 u32 inta_mask;
#endif

 spin_lock_irqsave(&il->lock, flags);

 /* Ack/clear/reset pending uCode interrupts.
 * Note:  Some bits in CSR_INT are "OR" of bits in CSR_FH_INT_STATUS,
 *  and will clear only when CSR_FH_INT_STATUS gets cleared. */

 inta = _il_rd(il, CSR_INT);
 _il_wr(il, CSR_INT, inta);

 /* Ack/clear/reset pending flow-handler (DMA) interrupts.
 * Any new interrupts that happen after this, either while we're
 * in this tasklet, or later, will show up in next ISR/tasklet. */

 inta_fh = _il_rd(il, CSR_FH_INT_STATUS);
 _il_wr(il, CSR_FH_INT_STATUS, inta_fh);

#ifdef CONFIG_IWLEGACY_DEBUG
 if (il_get_debug_level(il) & IL_DL_ISR) {
  /* just for debug */
  inta_mask = _il_rd(il, CSR_INT_MASK);
  D_ISR("inta 0x%08x, enabled 0x%08x, fh 0x%08x\n", inta,
        inta_mask, inta_fh);
 }
#endif

 spin_unlock_irqrestore(&il->lock, flags);

 /* Since CSR_INT and CSR_FH_INT_STATUS reads and clears are not
 * atomic, make sure that inta covers all the interrupts that
 * we've discovered, even if FH interrupt came in just after
 * reading CSR_INT. */

 if (inta_fh & CSR39_FH_INT_RX_MASK)
  inta |= CSR_INT_BIT_FH_RX;
 if (inta_fh & CSR39_FH_INT_TX_MASK)
  inta |= CSR_INT_BIT_FH_TX;

 /* Now service all interrupt bits discovered above. */
 if (inta & CSR_INT_BIT_HW_ERR) {
  IL_ERR("Hardware error detected. Restarting.\n");

  /* Tell the device to stop sending interrupts */
  il_disable_interrupts(il);

  il->isr_stats.hw++;
  il_irq_handle_error(il);

  handled |= CSR_INT_BIT_HW_ERR;

  return;
 }
#ifdef CONFIG_IWLEGACY_DEBUG
 if (il_get_debug_level(il) & (IL_DL_ISR)) {
  /* NIC fires this, but we don't use it, redundant with WAKEUP */
  if (inta & CSR_INT_BIT_SCD) {
   D_ISR("Scheduler finished to transmit "
         "the frame/frames.\n");
   il->isr_stats.sch++;
  }

  /* Alive notification via Rx interrupt will do the real work */
  if (inta & CSR_INT_BIT_ALIVE) {
   D_ISR("Alive interrupt\n");
   il->isr_stats.alive++;
  }
 }
#endif
 /* Safely ignore these bits for debug checks below */
 inta &= ~(CSR_INT_BIT_SCD | CSR_INT_BIT_ALIVE);

 /* Error detected by uCode */
 if (inta & CSR_INT_BIT_SW_ERR) {
  IL_ERR("Microcode SW error detected. " "Restarting 0x%X.\n",
         inta);
  il->isr_stats.sw++;
  il_irq_handle_error(il);
  handled |= CSR_INT_BIT_SW_ERR;
 }

 /* uCode wakes up after power-down sleep */
 if (inta & CSR_INT_BIT_WAKEUP) {
  D_ISR("Wakeup interrupt\n");
  il_rx_queue_update_write_ptr(il, &il->rxq);

  spin_lock_irqsave(&il->lock, flags);
  il_txq_update_write_ptr(il, &il->txq[0]);
  il_txq_update_write_ptr(il, &il->txq[1]);
  il_txq_update_write_ptr(il, &il->txq[2]);
  il_txq_update_write_ptr(il, &il->txq[3]);
  il_txq_update_write_ptr(il, &il->txq[4]);
  spin_unlock_irqrestore(&il->lock, flags);

  il->isr_stats.wakeup++;
  handled |= CSR_INT_BIT_WAKEUP;
 }

 /* All uCode command responses, including Tx command responses,
 * Rx "responses" (frame-received notification), and other
 * notifications from uCode come through here*/

 if (inta & (CSR_INT_BIT_FH_RX | CSR_INT_BIT_SW_RX)) {
  il3945_rx_handle(il);
  il->isr_stats.rx++;
  handled |= (CSR_INT_BIT_FH_RX | CSR_INT_BIT_SW_RX);
 }

 if (inta & CSR_INT_BIT_FH_TX) {
  D_ISR("Tx interrupt\n");
  il->isr_stats.tx++;

  _il_wr(il, CSR_FH_INT_STATUS, (1 << 6));
  il_wr(il, FH39_TCSR_CREDIT(FH39_SRVC_CHNL), 0x0);
  handled |= CSR_INT_BIT_FH_TX;
 }

 if (inta & ~handled) {
  IL_ERR("Unhandled INTA bits 0x%08x\n", inta & ~handled);
  il->isr_stats.unhandled++;
 }

 if (inta & ~il->inta_mask) {
  IL_WARN("Disabled INTA bits 0x%08x were pending\n",
   inta & ~il->inta_mask);
  IL_WARN(" with inta_fh = 0x%08x\n", inta_fh);
 }

 /* Re-enable all interrupts */
 /* only Re-enable if disabled by irq */
 if (test_bit(S_INT_ENABLED, &il->status))
  il_enable_interrupts(il);

#ifdef CONFIG_IWLEGACY_DEBUG
 if (il_get_debug_level(il) & (IL_DL_ISR)) {
  inta = _il_rd(il, CSR_INT);
  inta_mask = _il_rd(il, CSR_INT_MASK);
  inta_fh = _il_rd(il, CSR_FH_INT_STATUS);
  D_ISR("End inta 0x%08x, enabled 0x%08x, fh 0x%08x, "
        "flags 0x%08lx\n", inta, inta_mask, inta_fh, flags);
 }
#endif
}

static int
il3945_get_channels_for_scan(struct il_priv *il, enum nl80211_band band,
        u8 is_active, u8 n_probes,
        struct il3945_scan_channel *scan_ch,
        struct ieee80211_vif *vif)
{
 struct ieee80211_channel *chan;
 const struct ieee80211_supported_band *sband;
 const struct il_channel_info *ch_info;
 u16 passive_dwell = 0;
 u16 active_dwell = 0;
 int added, i;

 sband = il_get_hw_mode(il, band);
 if (!sband)
  return 0;

 active_dwell = il_get_active_dwell_time(il, band, n_probes);
 passive_dwell = il_get_passive_dwell_time(il, band, vif);

 if (passive_dwell <= active_dwell)
  passive_dwell = active_dwell + 1;

 for (i = 0, added = 0; i < il->scan_request->n_channels; i++) {
  chan = il->scan_request->channels[i];

  if (chan->band != band)
   continue;

  scan_ch->channel = chan->hw_value;

  ch_info = il_get_channel_info(il, band, scan_ch->channel);
  if (!il_is_channel_valid(ch_info)) {
   D_SCAN("Channel %d is INVALID for this band.\n",
          scan_ch->channel);
   continue;
  }

  scan_ch->active_dwell = cpu_to_le16(active_dwell);
  scan_ch->passive_dwell = cpu_to_le16(passive_dwell);
  /* If passive , set up for auto-switch
 *  and use long active_dwell time.
 */

  if (!is_active || il_is_channel_passive(ch_info) ||
      (chan->flags & IEEE80211_CHAN_NO_IR)) {
   scan_ch->type = 0; /* passive */
   if (IL_UCODE_API(il->ucode_ver) == 1)
    scan_ch->active_dwell =
        cpu_to_le16(passive_dwell - 1);
  } else {
   scan_ch->type = 1; /* active */
  }

  /* Set direct probe bits. These may be used both for active
 * scan channels (probes gets sent right away),
 * or for passive channels (probes get se sent only after
 * hearing clear Rx packet).*/

  if (IL_UCODE_API(il->ucode_ver) >= 2) {
   if (n_probes)
    scan_ch->type |= IL39_SCAN_PROBE_MASK(n_probes);
  } else {
   /* uCode v1 does not allow setting direct probe bits on
 * passive channel. */

   if ((scan_ch->type & 1) && n_probes)
    scan_ch->type |= IL39_SCAN_PROBE_MASK(n_probes);
  }

  /* Set txpower levels to defaults */
  scan_ch->tpc.dsp_atten = 110;
  /* scan_pwr_info->tpc.dsp_atten; */

  /*scan_pwr_info->tpc.tx_gain; */
  if (band == NL80211_BAND_5GHZ)
   scan_ch->tpc.tx_gain = ((1 << 5) | (3 << 3)) | 3;
  else {
   scan_ch->tpc.tx_gain = ((1 << 5) | (5 << 3));
   /* NOTE: if we were doing 6Mb OFDM for scans we'd use
 * power level:
 * scan_ch->tpc.tx_gain = ((1 << 5) | (2 << 3)) | 3;
 */

  }

  D_SCAN("Scanning %d [%s %d]\n", scan_ch->channel,
         (scan_ch->type & 1) ? "ACTIVE" : "PASSIVE",
         (scan_ch->type & 1) ? active_dwell : passive_dwell);

  scan_ch++;
  added++;
 }

 D_SCAN("total channels to scan %d\n", added);
 return added;
}

static void
il3945_init_hw_rates(struct il_priv *il, struct ieee80211_rate *rates)
{
 int i;

 for (i = 0; i < RATE_COUNT_LEGACY; i++) {
  rates[i].bitrate = il3945_rates[i].ieee * 5;
  rates[i].hw_value = i; /* Rate scaling will work on idxes */
  rates[i].hw_value_short = i;
  rates[i].flags = 0;
  if (i > IL39_LAST_OFDM_RATE || i < IL_FIRST_OFDM_RATE) {
   /*
 * If CCK != 1M then set short preamble rate flag.
 */

   rates[i].flags |=
       (il3945_rates[i].plcp ==
        10) ? 0 : IEEE80211_RATE_SHORT_PREAMBLE;
  }
 }
}

/******************************************************************************
 *
 * uCode download functions
 *
 ******************************************************************************/


static void
il3945_dealloc_ucode_pci(struct il_priv *il)
{
 il_free_fw_desc(il->pci_dev, &il->ucode_code);
 il_free_fw_desc(il->pci_dev, &il->ucode_data);
 il_free_fw_desc(il->pci_dev, &il->ucode_data_backup);
 il_free_fw_desc(il->pci_dev, &il->ucode_init);
 il_free_fw_desc(il->pci_dev, &il->ucode_init_data);
 il_free_fw_desc(il->pci_dev, &il->ucode_boot);
}

/*
 * il3945_verify_inst_full - verify runtime uCode image in card vs. host,
 *     looking at all data.
 */

static int
il3945_verify_inst_full(struct il_priv *il, __le32 * image, u32 len)
{
 u32 val;
 u32 save_len = len;
 int rc = 0;
 u32 errcnt;

 D_INFO("ucode inst image size is %u\n", len);

 il_wr(il, HBUS_TARG_MEM_RADDR, IL39_RTC_INST_LOWER_BOUND);

 errcnt = 0;
 for (; len > 0; len -= sizeof(u32), image++) {
  /* read data comes through single port, auto-incr addr */
  /* NOTE: Use the debugless read so we don't flood kernel log
 * if IL_DL_IO is set */

  val = _il_rd(il, HBUS_TARG_MEM_RDAT);
  if (val != le32_to_cpu(*image)) {
   IL_ERR("uCode INST section is invalid at "
          "offset 0x%x, is 0x%x, s/b 0x%x\n",
          save_len - len, val, le32_to_cpu(*image));
   rc = -EIO;
   errcnt++;
   if (errcnt >= 20)
    break;
  }
 }

 if (!errcnt)
  D_INFO("ucode image in INSTRUCTION memory is good\n");

 return rc;
}

/*
 * il3945_verify_inst_sparse - verify runtime uCode image in card vs. host,
 *   using sample data 100 bytes apart.  If these sample points are good,
 *   it's a pretty good bet that everything between them is good, too.
 */

static int
il3945_verify_inst_sparse(struct il_priv *il, __le32 * image, u32 len)
{
 u32 val;
 int rc = 0;
 u32 errcnt = 0;
 u32 i;

 D_INFO("ucode inst image size is %u\n", len);

 for (i = 0; i < len; i += 100, image += 100 / sizeof(u32)) {
  /* read data comes through single port, auto-incr addr */
  /* NOTE: Use the debugless read so we don't flood kernel log
 * if IL_DL_IO is set */

  il_wr(il, HBUS_TARG_MEM_RADDR, i + IL39_RTC_INST_LOWER_BOUND);
  val = _il_rd(il, HBUS_TARG_MEM_RDAT);
  if (val != le32_to_cpu(*image)) {
#if 0    /* Enable this if you want to see details */
   IL_ERR("uCode INST section is invalid at "
          "offset 0x%x, is 0x%x, s/b 0x%x\n", i, val,
          *image);
#endif
   rc = -EIO;
   errcnt++;
   if (errcnt >= 3)
    break;
  }
 }

 return rc;
}

/*
 * il3945_verify_ucode - determine which instruction image is in SRAM,
 *    and verify its contents
 */

static int
il3945_verify_ucode(struct il_priv *il)
{
 __le32 *image;
 u32 len;
 int rc = 0;

 /* Try bootstrap */
 image = (__le32 *) il->ucode_boot.v_addr;
 len = il->ucode_boot.len;
 rc = il3945_verify_inst_sparse(il, image, len);
 if (rc == 0) {
  D_INFO("Bootstrap uCode is good in inst SRAM\n");
  return 0;
 }

 /* Try initialize */
 image = (__le32 *) il->ucode_init.v_addr;
 len = il->ucode_init.len;
 rc = il3945_verify_inst_sparse(il, image, len);
 if (rc == 0) {
  D_INFO("Initialize uCode is good in inst SRAM\n");
  return 0;
 }

 /* Try runtime/protocol */
 image = (__le32 *) il->ucode_code.v_addr;
 len = il->ucode_code.len;
 rc = il3945_verify_inst_sparse(il, image, len);
 if (rc == 0) {
  D_INFO("Runtime uCode is good in inst SRAM\n");
  return 0;
 }

 IL_ERR("NO VALID UCODE IMAGE IN INSTRUCTION SRAM!!\n");

 /* Since nothing seems to match, show first several data entries in
 * instruction SRAM, so maybe visual inspection will give a clue.
 * Selection of bootstrap image (vs. other images) is arbitrary. */

 image = (__le32 *) il->ucode_boot.v_addr;
 len = il->ucode_boot.len;
 rc = il3945_verify_inst_full(il, image, len);

 return rc;
}

static void
il3945_nic_start(struct il_priv *il)
{
 /* Remove all resets to allow NIC to operate */
 _il_wr(il, CSR_RESET, 0);
}

#define IL3945_UCODE_GET(item)      \
static u32 il3945_ucode_get_##item(const struct il_ucode_header *ucode)\
{         \
 return le32_to_cpu(ucode->v1.item);    \
}

static u32
il3945_ucode_get_header_size(u32 api_ver)
{
 return 24;
}

static u8 *
il3945_ucode_get_data(const struct il_ucode_header *ucode)
{
 return (u8 *) ucode->v1.data;
}

IL3945_UCODE_GET(inst_size);
IL3945_UCODE_GET(data_size);
IL3945_UCODE_GET(init_size);
IL3945_UCODE_GET(init_data_size);
IL3945_UCODE_GET(boot_size);

/*
 * il3945_read_ucode - Read uCode images from disk file.
 *
 * Copy into buffers for card to fetch via bus-mastering
 */

static int
il3945_read_ucode(struct il_priv *il)
{
 const struct il_ucode_header *ucode;
 int ret = -EINVAL, idx;
 const struct firmware *ucode_raw;
 /* firmware file name contains uCode/driver compatibility version */
 const char *name_pre = il->cfg->fw_name_pre;
 const unsigned int api_max = il->cfg->ucode_api_max;
 const unsigned int api_min = il->cfg->ucode_api_min;
 char buf[25];
 u8 *src;
 size_t len;
 u32 api_ver, inst_size, data_size, init_size, init_data_size, boot_size;

 /* Ask kernel firmware_class module to get the boot firmware off disk.
 * request_firmware() is synchronous, file is in memory on return. */

 for (idx = api_max; idx >= api_min; idx--) {
  sprintf(buf, "%s%u%s", name_pre, idx, ".ucode");
  ret = request_firmware(&ucode_raw, buf, &il->pci_dev->dev);
  if (ret < 0) {
   IL_ERR("%s firmware file req failed: %d\n", buf, ret);
   if (ret == -ENOENT)
    continue;
   else
    goto error;
  } else {
   if (idx < api_max)
    IL_ERR("Loaded firmware %s, "
           "which is deprecated. "
           " Please use API v%u instead.\n", buf,
           api_max);
   D_INFO("Got firmware '%s' file "
          "(%zd bytes) from disk\n", buf, ucode_raw->size);
   break;
  }
 }

 if (ret < 0)
  goto error;

 /* Make sure that we got at least our header! */
 if (ucode_raw->size < il3945_ucode_get_header_size(1)) {
  IL_ERR("File size way too small!\n");
  ret = -EINVAL;
  goto err_release;
 }

 /* Data from ucode file:  header followed by uCode images */
 ucode = (struct il_ucode_header *)ucode_raw->data;

 il->ucode_ver = le32_to_cpu(ucode->ver);
 api_ver = IL_UCODE_API(il->ucode_ver);
 inst_size = il3945_ucode_get_inst_size(ucode);
 data_size = il3945_ucode_get_data_size(ucode);
 init_size = il3945_ucode_get_init_size(ucode);
 init_data_size = il3945_ucode_get_init_data_size(ucode);
 boot_size = il3945_ucode_get_boot_size(ucode);
 src = il3945_ucode_get_data(ucode);

 /* api_ver should match the api version forming part of the
 * firmware filename ... but we don't check for that and only rely
 * on the API version read from firmware header from here on forward */


 if (api_ver < api_min || api_ver > api_max) {
  IL_ERR("Driver unable to support your firmware API. "
         "Driver supports v%u, firmware is v%u.\n", api_max,
         api_ver);
  il->ucode_ver = 0;
  ret = -EINVAL;
  goto err_release;
 }
 if (api_ver != api_max)
  IL_ERR("Firmware has old API version. Expected %u, "
         "got %u. New firmware can be obtained "
         "from http://www.intellinuxwireless.org.\n", api_max,
         api_ver);

 IL_INFO("loaded firmware version %u.%u.%u.%u\n",
  IL_UCODE_MAJOR(il->ucode_ver), IL_UCODE_MINOR(il->ucode_ver),
  IL_UCODE_API(il->ucode_ver), IL_UCODE_SERIAL(il->ucode_ver));

 snprintf(il->hw->wiphy->fw_version, sizeof(il->hw->wiphy->fw_version),
   "%u.%u.%u.%u", IL_UCODE_MAJOR(il->ucode_ver),
   IL_UCODE_MINOR(il->ucode_ver), IL_UCODE_API(il->ucode_ver),
   IL_UCODE_SERIAL(il->ucode_ver));

 D_INFO("f/w package hdr ucode version raw = 0x%x\n", il->ucode_ver);
 D_INFO("f/w package hdr runtime inst size = %u\n", inst_size);
 D_INFO("f/w package hdr runtime data size = %u\n", data_size);
 D_INFO("f/w package hdr init inst size = %u\n", init_size);
 D_INFO("f/w package hdr init data size = %u\n", init_data_size);
 D_INFO("f/w package hdr boot inst size = %u\n", boot_size);

 /* Verify size of file vs. image size info in file's header */
 if (ucode_raw->size !=
     il3945_ucode_get_header_size(api_ver) + inst_size + data_size +
     init_size + init_data_size + boot_size) {

  D_INFO("uCode file size %zd does not match expected size\n",
         ucode_raw->size);
  ret = -EINVAL;
  goto err_release;
 }

 /* Verify that uCode images will fit in card's SRAM */
 if (inst_size > IL39_MAX_INST_SIZE) {
  D_INFO("uCode instr len %d too large to fit in\n", inst_size);
  ret = -EINVAL;
  goto err_release;
 }

 if (data_size > IL39_MAX_DATA_SIZE) {
  D_INFO("uCode data len %d too large to fit in\n", data_size);
  ret = -EINVAL;
  goto err_release;
 }
 if (init_size > IL39_MAX_INST_SIZE) {
  D_INFO("uCode init instr len %d too large to fit in\n",
         init_size);
  ret = -EINVAL;
  goto err_release;
 }
 if (init_data_size > IL39_MAX_DATA_SIZE) {
  D_INFO("uCode init data len %d too large to fit in\n",
         init_data_size);
  ret = -EINVAL;
  goto err_release;
 }
 if (boot_size > IL39_MAX_BSM_SIZE) {
  D_INFO("uCode boot instr len %d too large to fit in\n",
         boot_size);
  ret = -EINVAL;
  goto err_release;
 }

 /* Allocate ucode buffers for card's bus-master loading ... */

 /* Runtime instructions and 2 copies of data:
 * 1) unmodified from disk
 * 2) backup cache for save/restore during power-downs */

 il->ucode_code.len = inst_size;
 il_alloc_fw_desc(il->pci_dev, &il->ucode_code);

 il->ucode_data.len = data_size;
 il_alloc_fw_desc(il->pci_dev, &il->ucode_data);

 il->ucode_data_backup.len = data_size;
 il_alloc_fw_desc(il->pci_dev, &il->ucode_data_backup);

 if (!il->ucode_code.v_addr || !il->ucode_data.v_addr ||
     !il->ucode_data_backup.v_addr)
  goto err_pci_alloc;

 /* Initialization instructions and data */
 if (init_size && init_data_size) {
  il->ucode_init.len = init_size;
  il_alloc_fw_desc(il->pci_dev, &il->ucode_init);

  il->ucode_init_data.len = init_data_size;
  il_alloc_fw_desc(il->pci_dev, &il->ucode_init_data);

  if (!il->ucode_init.v_addr || !il->ucode_init_data.v_addr)
   goto err_pci_alloc;
 }

 /* Bootstrap (instructions only, no data) */
 if (boot_size) {
  il->ucode_boot.len = boot_size;
  il_alloc_fw_desc(il->pci_dev, &il->ucode_boot);

  if (!il->ucode_boot.v_addr)
   goto err_pci_alloc;
 }

 /* Copy images into buffers for card's bus-master reads ... */

 /* Runtime instructions (first block of data in file) */
 len = inst_size;
 D_INFO("Copying (but not loading) uCode instr len %zd\n", len);
 memcpy(il->ucode_code.v_addr, src, len);
 src += len;

 D_INFO("uCode instr buf vaddr = 0x%p, paddr = 0x%08x\n",
        il->ucode_code.v_addr, (u32) il->ucode_code.p_addr);

 /* Runtime data (2nd block)
 * NOTE:  Copy into backup buffer will be done in il3945_up()  */

 len = data_size;
 D_INFO("Copying (but not loading) uCode data len %zd\n", len);
 memcpy(il->ucode_data.v_addr, src, len);
 memcpy(il->ucode_data_backup.v_addr, src, len);
 src += len;

 /* Initialization instructions (3rd block) */
 if (init_size) {
  len = init_size;
  D_INFO("Copying (but not loading) init instr len %zd\n", len);
  memcpy(il->ucode_init.v_addr, src, len);
  src += len;
 }

 /* Initialization data (4th block) */
 if (init_data_size) {
  len = init_data_size;
  D_INFO("Copying (but not loading) init data len %zd\n", len);
  memcpy(il->ucode_init_data.v_addr, src, len);
  src += len;
 }

 /* Bootstrap instructions (5th block) */
 len = boot_size;
 D_INFO("Copying (but not loading) boot instr len %zd\n", len);
 memcpy(il->ucode_boot.v_addr, src, len);

 /* We have our copies now, allow OS release its copies */
 release_firmware(ucode_raw);
 return 0;

err_pci_alloc:
 IL_ERR("failed to allocate pci memory\n");
 ret = -ENOMEM;
 il3945_dealloc_ucode_pci(il);

err_release:
 release_firmware(ucode_raw);

error:
 return ret;
}

/*
 * il3945_set_ucode_ptrs - Set uCode address location
 *
 * Tell initialization uCode where to find runtime uCode.
 *
 * BSM registers initially contain pointers to initialization uCode.
 * We need to replace them to load runtime uCode inst and data,
 * and to save runtime data when powering down.
 */

static int
il3945_set_ucode_ptrs(struct il_priv *il)
{
 dma_addr_t pinst;
 dma_addr_t pdata;

 /* bits 31:0 for 3945 */
 pinst = il->ucode_code.p_addr;
 pdata = il->ucode_data_backup.p_addr;

 /* Tell bootstrap uCode where to find image to load */
 il_wr_prph(il, BSM_DRAM_INST_PTR_REG, pinst);
 il_wr_prph(il, BSM_DRAM_DATA_PTR_REG, pdata);
 il_wr_prph(il, BSM_DRAM_DATA_BYTECOUNT_REG, il->ucode_data.len);

 /* Inst byte count must be last to set up, bit 31 signals uCode
 *   that all new ptr/size info is in place */

 il_wr_prph(il, BSM_DRAM_INST_BYTECOUNT_REG,
     il->ucode_code.len | BSM_DRAM_INST_LOAD);

 D_INFO("Runtime uCode pointers are set.\n");

 return 0;
}

/*
 * il3945_init_alive_start - Called after N_ALIVE notification received
 *
 * Called after N_ALIVE notification received from "initialize" uCode.
 *
 * Tell "initialize" uCode to go ahead and load the runtime uCode.
 */

static void
il3945_init_alive_start(struct il_priv *il)
{
 /* Check alive response for "valid" sign from uCode */
 if (il->card_alive_init.is_valid != UCODE_VALID_OK) {
  /* We had an error bringing up the hardware, so take it
 * all the way back down so we can try again */

  D_INFO("Initialize Alive failed.\n");
  goto restart;
 }

 /* Bootstrap uCode has loaded initialize uCode ... verify inst image.
 * This is a paranoid check, because we would not have gotten the
 * "initialize" alive if code weren't properly loaded.  */

 if (il3945_verify_ucode(il)) {
  /* Runtime instruction load was bad;
 * take it all the way back down so we can try again */

  D_INFO("Bad \"initialize\" uCode load.\n");
  goto restart;
 }

 /* Send pointers to protocol/runtime uCode image ... init code will
 * load and launch runtime uCode, which will send us another "Alive"
 * notification. */

 D_INFO("Initialization Alive received.\n");
 if (il3945_set_ucode_ptrs(il)) {
  /* Runtime instruction load won't happen;
 * take it all the way back down so we can try again */

  D_INFO("Couldn't set up uCode pointers.\n");
  goto restart;
 }
 return;

restart:
 queue_work(il->workqueue, &il->restart);
}

/*
 * il3945_alive_start - called after N_ALIVE notification received
 *                   from protocol/runtime uCode (initialization uCode's
 *                   Alive gets handled by il3945_init_alive_start()).
 */

static void
il3945_alive_start(struct il_priv *il)
{
 int thermal_spin = 0;
 u32 rfkill;

 D_INFO("Runtime Alive received.\n");

 if (il->card_alive.is_valid != UCODE_VALID_OK) {
  /* We had an error bringing up the hardware, so take it
 * all the way back down so we can try again */

  D_INFO("Alive failed.\n");
  goto restart;
 }

 /* Initialize uCode has loaded Runtime uCode ... verify inst image.
 * This is a paranoid check, because we would not have gotten the
 * "runtime" alive if code weren't properly loaded.  */

 if (il3945_verify_ucode(il)) {
  /* Runtime instruction load was bad;
 * take it all the way back down so we can try again */

  D_INFO("Bad runtime uCode load.\n");
  goto restart;
 }

 rfkill = il_rd_prph(il, APMG_RFKILL_REG);
 D_INFO("RFKILL status: 0x%x\n", rfkill);

 if (rfkill & 0x1) {
  clear_bit(S_RFKILL, &il->status);
  /* if RFKILL is not on, then wait for thermal
 * sensor in adapter to kick in */

  while (il3945_hw_get_temperature(il) == 0) {
   thermal_spin++;
   udelay(10);
  }

  if (thermal_spin)
   D_INFO("Thermal calibration took %dus\n",
          thermal_spin * 10);
 } else
  set_bit(S_RFKILL, &il->status);

 /* After the ALIVE response, we can send commands to 3945 uCode */
 set_bit(S_ALIVE, &il->status);

 /* Enable watchdog to monitor the driver tx queues */
 il_setup_watchdog(il);

 if (il_is_rfkill(il))
  return;

 ieee80211_wake_queues(il->hw);

 il->active_rate = RATES_MASK_3945;

 il_power_update_mode(il, true);

 if (il_is_associated(il)) {
  struct il3945_rxon_cmd *active_rxon =
      (struct il3945_rxon_cmd *)(&il->active);

  il->staging.filter_flags |= RXON_FILTER_ASSOC_MSK;
  active_rxon->filter_flags &= ~RXON_FILTER_ASSOC_MSK;
 } else {
  /* Initialize our rx_config data */
  il_connection_init_rx_config(il);
 }

 /* Configure Bluetooth device coexistence support */
 il_send_bt_config(il);

 set_bit(S_READY, &il->status);

 /* Configure the adapter for unassociated operation */
 il3945_commit_rxon(il);

 il3945_reg_txpower_periodic(il);

 D_INFO("ALIVE processing complete.\n");
 wake_up(&il->wait_command_queue);

 return;

restart:
 queue_work(il->workqueue, &il->restart);
}

static void il3945_cancel_deferred_work(struct il_priv *il);

static void
__il3945_down(struct il_priv *il)
{
 unsigned long flags;
 int exit_pending;

 D_INFO(DRV_NAME " is going down\n");

 il_scan_cancel_timeout(il, 200);

 exit_pending = test_and_set_bit(S_EXIT_PENDING, &il->status);

 /* Stop TX queues watchdog. We need to have S_EXIT_PENDING bit set
 * to prevent rearm timer */

 timer_delete_sync(&il->watchdog);

 /* Station information will now be cleared in device */
 il_clear_ucode_stations(il);
 il_dealloc_bcast_stations(il);
 il_clear_driver_stations(il);

 /* Unblock any waiting calls */
 wake_up_all(&il->wait_command_queue);

 /* Wipe out the EXIT_PENDING status bit if we are not actually
 * exiting the module */

 if (!exit_pending)
  clear_bit(S_EXIT_PENDING, &il->status);

 /* stop and reset the on-board processor */
 _il_wr(il, CSR_RESET, CSR_RESET_REG_FLAG_NEVO_RESET);

 /* tell the device to stop sending interrupts */
 spin_lock_irqsave(&il->lock, flags);
 il_disable_interrupts(il);
 spin_unlock_irqrestore(&il->lock, flags);
 il3945_synchronize_irq(il);

 if (il->mac80211_registered)
  ieee80211_stop_queues(il->hw);

 /* If we have not previously called il3945_init() then
 * clear all bits but the RF Kill bits and return */

 if (!il_is_init(il)) {
  il->status =
      test_bit(S_RFKILL, &il->status) << S_RFKILL |
      test_bit(S_GEO_CONFIGURED, &il->status) << S_GEO_CONFIGURED |
      test_bit(S_EXIT_PENDING, &il->status) << S_EXIT_PENDING;
  goto exit;
 }

 /* ...otherwise clear out all the status bits but the RF Kill
 * bit and continue taking the NIC down. */

 il->status &=
     test_bit(S_RFKILL, &il->status) << S_RFKILL |
     test_bit(S_GEO_CONFIGURED, &il->status) << S_GEO_CONFIGURED |
     test_bit(S_FW_ERROR, &il->status) << S_FW_ERROR |
     test_bit(S_EXIT_PENDING, &il->status) << S_EXIT_PENDING;

 /*
 * We disabled and synchronized interrupt, and priv->mutex is taken, so
 * here is the only thread which will program device registers, but
 * still have lockdep assertions, so we are taking reg_lock.
 */

 spin_lock_irq(&il->reg_lock);
 /* FIXME: il_grab_nic_access if rfkill is off ? */

 il3945_hw_txq_ctx_stop(il);
 il3945_hw_rxq_stop(il);
 /* Power-down device's busmaster DMA clocks */
 _il_wr_prph(il, APMG_CLK_DIS_REG, APMG_CLK_VAL_DMA_CLK_RQT);
 udelay(5);
 /* Stop the device, and put it in low power state */
 _il_apm_stop(il);

 spin_unlock_irq(&il->reg_lock);

 il3945_hw_txq_ctx_free(il);
exit:
 memset(&il->card_alive, 0, sizeof(struct il_alive_resp));
 dev_kfree_skb(il->beacon_skb);
 il->beacon_skb = NULL;

 /* clear out any free frames */
 il3945_clear_free_frames(il);
}

static void
il3945_down(struct il_priv *il)
{
 mutex_lock(&il->mutex);
 __il3945_down(il);
 mutex_unlock(&il->mutex);

 il3945_cancel_deferred_work(il);
}

#define MAX_HW_RESTARTS 5

static int
il3945_alloc_bcast_station(struct il_priv *il)
{
 unsigned long flags;
 u8 sta_id;

 spin_lock_irqsave(&il->sta_lock, flags);
 sta_id = il_prep_station(il, il_bcast_addr, false, NULL);
 if (sta_id == IL_INVALID_STATION) {
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=94 H=88 G=90

¤ Dauer der Verarbeitung: 0.24 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.