Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/drivers/net/ethernet/atheros/atlx/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 98 kB image not shown  

Quelle  atl1.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-or-later
/*
 * Copyright(c) 2005 - 2006 Attansic Corporation. All rights reserved.
 * Copyright(c) 2006 - 2007 Chris Snook <csnook@redhat.com>
 * Copyright(c) 2006 - 2008 Jay Cliburn <jcliburn@gmail.com>
 *
 * Derived from Intel e1000 driver
 * Copyright(c) 1999 - 2005 Intel Corporation. All rights reserved.
 *
 * Contact Information:
 * Xiong Huang <xiong.huang@atheros.com>
 * Jie Yang <jie.yang@atheros.com>
 * Chris Snook <csnook@redhat.com>
 * Jay Cliburn <jcliburn@gmail.com>
 *
 * This version is adapted from the Attansic reference driver.
 *
 * TODO:
 * Add more ethtool functions.
 * Fix abstruse irq enable/disable condition described here:
 * http://marc.theaimsgroup.com/?l=linux-netdev&m=116398508500553&w=2
 *
 * NEEDS TESTING:
 * VLAN
 * multicast
 * promiscuous mode
 * interrupt coalescing
 * SMP torture testing
 */


#include <linux/atomic.h>
#include <asm/byteorder.h>

#include <linux/compiler.h>
#include <linux/crc32.h>
#include <linux/delay.h>
#include <linux/dma-mapping.h>
#include <linux/etherdevice.h>
#include <linux/hardirq.h>
#include <linux/if_ether.h>
#include <linux/if_vlan.h>
#include <linux/in.h>
#include <linux/interrupt.h>
#include <linux/ip.h>
#include <linux/irqflags.h>
#include <linux/irqreturn.h>
#include <linux/jiffies.h>
#include <linux/mii.h>
#include <linux/module.h>
#include <linux/net.h>
#include <linux/netdevice.h>
#include <linux/pci.h>
#include <linux/pci_ids.h>
#include <linux/pm.h>
#include <linux/skbuff.h>
#include <linux/slab.h>
#include <linux/spinlock.h>
#include <linux/string.h>
#include <linux/tcp.h>
#include <linux/timer.h>
#include <linux/types.h>
#include <linux/workqueue.h>

#include <net/checksum.h>

#include "atl1.h"

MODULE_AUTHOR("Xiong Huang , "
       "Chris Snook , "
       "Jay Cliburn ");
MODULE_LICENSE("GPL");

/* Temporary hack for merging atl1 and atl2 */
#include "atlx.c"

static const struct ethtool_ops atl1_ethtool_ops;

/*
 * This is the only thing that needs to be changed to adjust the
 * maximum number of ports that the driver can manage.
 */

#define ATL1_MAX_NIC 4

#define OPTION_UNSET    -1
#define OPTION_DISABLED 0
#define OPTION_ENABLED  1

#define ATL1_PARAM_INIT { [0 ... ATL1_MAX_NIC] = OPTION_UNSET }

/*
 * Interrupt Moderate Timer in units of 2 us
 *
 * Valid Range: 10-65535
 *
 * Default Value: 100 (200us)
 */

static int int_mod_timer[ATL1_MAX_NIC+1] = ATL1_PARAM_INIT;
static unsigned int num_int_mod_timer;
module_param_array_named(int_mod_timer, int_mod_timer, int,
 &num_int_mod_timer, 0);
MODULE_PARM_DESC(int_mod_timer, "Interrupt moderator timer");

#define DEFAULT_INT_MOD_CNT 100 /* 200us */
#define MAX_INT_MOD_CNT  65000
#define MIN_INT_MOD_CNT  50

struct atl1_option {
 enum { enable_option, range_option, list_option } type;
 char *name;
 char *err;
 int def;
 union {
  struct { /* range_option info */
   int min;
   int max;
  } r;
  struct { /* list_option info */
   int nr;
   struct atl1_opt_list {
    int i;
    char *str;
   } *p;
  } l;
 } arg;
};

static int atl1_validate_option(int *value, struct atl1_option *opt,
    struct pci_dev *pdev)
{
 if (*value == OPTION_UNSET) {
  *value = opt->def;
  return 0;
 }

 switch (opt->type) {
 case enable_option:
  switch (*value) {
  case OPTION_ENABLED:
   dev_info(&pdev->dev, "%s enabled\n", opt->name);
   return 0;
  case OPTION_DISABLED:
   dev_info(&pdev->dev, "%s disabled\n", opt->name);
   return 0;
  }
  break;
 case range_option:
  if (*value >= opt->arg.r.min && *value <= opt->arg.r.max) {
   dev_info(&pdev->dev, "%s set to %i\n", opt->name,
    *value);
   return 0;
  }
  break;
 case list_option:{
   int i;
   struct atl1_opt_list *ent;

   for (i = 0; i < opt->arg.l.nr; i++) {
    ent = &opt->arg.l.p[i];
    if (*value == ent->i) {
     if (ent->str[0] != '\0')
      dev_info(&pdev->dev, "%s\n",
       ent->str);
     return 0;
    }
   }
  }
  break;

 default:
  break;
 }

 dev_info(&pdev->dev, "invalid %s specified (%i) %s\n",
  opt->name, *value, opt->err);
 *value = opt->def;
 return -1;
}

/**
 * atl1_check_options - Range Checking for Command Line Parameters
 * @adapter: board private structure
 *
 * This routine checks all command line parameters for valid user
 * input.  If an invalid value is given, or if no user specified
 * value exists, a default value is used.  The final value is stored
 * in a variable in the adapter structure.
 */

static void atl1_check_options(struct atl1_adapter *adapter)
{
 struct pci_dev *pdev = adapter->pdev;
 int bd = adapter->bd_number;
 if (bd >= ATL1_MAX_NIC) {
  dev_notice(&pdev->dev, "no configuration for board#%i\n", bd);
  dev_notice(&pdev->dev, "using defaults for all values\n");
 }
 {   /* Interrupt Moderate Timer */
  struct atl1_option opt = {
   .type = range_option,
   .name = "Interrupt Moderator Timer",
   .err = "using default of "
    __MODULE_STRING(DEFAULT_INT_MOD_CNT),
   .def = DEFAULT_INT_MOD_CNT,
   .arg = {.r = {.min = MIN_INT_MOD_CNT,
     .max = MAX_INT_MOD_CNT} }
  };
  int val;
  if (num_int_mod_timer > bd) {
   val = int_mod_timer[bd];
   atl1_validate_option(&val, &opt, pdev);
   adapter->imt = (u16) val;
  } else
   adapter->imt = (u16) (opt.def);
 }
}

/*
 * atl1_pci_tbl - PCI Device ID Table
 */

static const struct pci_device_id atl1_pci_tbl[] = {
 {PCI_DEVICE(PCI_VENDOR_ID_ATTANSIC, PCI_DEVICE_ID_ATTANSIC_L1)},
 /* required last entry */
 {0,}
};
MODULE_DEVICE_TABLE(pci, atl1_pci_tbl);

static const u32 atl1_default_msg = NETIF_MSG_DRV | NETIF_MSG_PROBE |
 NETIF_MSG_LINK | NETIF_MSG_TIMER | NETIF_MSG_IFDOWN | NETIF_MSG_IFUP;

static int debug = -1;
module_param(debug, int, 0);
MODULE_PARM_DESC(debug, "Message level (0=none,...,16=all)");

/*
 * Reset the transmit and receive units; mask and clear all interrupts.
 * hw - Struct containing variables accessed by shared code
 * return : 0  or  idle status (if error)
 */

static s32 atl1_reset_hw(struct atl1_hw *hw)
{
 struct pci_dev *pdev = hw->back->pdev;
 struct atl1_adapter *adapter = hw->back;
 u32 icr;
 int i;

 /*
 * Clear Interrupt mask to stop board from generating
 * interrupts & Clear any pending interrupt events
 */

 /*
 * atlx_irq_disable(adapter);
 * iowrite32(0xffffffff, hw->hw_addr + REG_ISR);
 */


 /*
 * Issue Soft Reset to the MAC.  This will reset the chip's
 * transmit, receive, DMA.  It will not effect
 * the current PCI configuration.  The global reset bit is self-
 * clearing, and should clear within a microsecond.
 */

 iowrite32(MASTER_CTRL_SOFT_RST, hw->hw_addr + REG_MASTER_CTRL);
 ioread32(hw->hw_addr + REG_MASTER_CTRL);

 iowrite16(1, hw->hw_addr + REG_PHY_ENABLE);
 ioread16(hw->hw_addr + REG_PHY_ENABLE);

 /* delay about 1ms */
 msleep(1);

 /* Wait at least 10ms for All module to be Idle */
 for (i = 0; i < 10; i++) {
  icr = ioread32(hw->hw_addr + REG_IDLE_STATUS);
  if (!icr)
   break;
  /* delay 1 ms */
  msleep(1);
  /* FIXME: still the right way to do this? */
  cpu_relax();
 }

 if (icr) {
  if (netif_msg_hw(adapter))
   dev_dbg(&pdev->dev, "ICR = 0x%x\n", icr);
  return icr;
 }

 return 0;
}

/* function about EEPROM
 *
 * check_eeprom_exist
 * return 0 if eeprom exist
 */

static int atl1_check_eeprom_exist(struct atl1_hw *hw)
{
 u32 value;
 value = ioread32(hw->hw_addr + REG_SPI_FLASH_CTRL);
 if (value & SPI_FLASH_CTRL_EN_VPD) {
  value &= ~SPI_FLASH_CTRL_EN_VPD;
  iowrite32(value, hw->hw_addr + REG_SPI_FLASH_CTRL);
 }

 value = ioread16(hw->hw_addr + REG_PCIE_CAP_LIST);
 return ((value & 0xFF00) == 0x6C00) ? 0 : 1;
}

static bool atl1_read_eeprom(struct atl1_hw *hw, u32 offset, u32 *p_value)
{
 int i;
 u32 control;

 if (offset & 3)
  /* address do not align */
  return false;

 iowrite32(0, hw->hw_addr + REG_VPD_DATA);
 control = (offset & VPD_CAP_VPD_ADDR_MASK) << VPD_CAP_VPD_ADDR_SHIFT;
 iowrite32(control, hw->hw_addr + REG_VPD_CAP);
 ioread32(hw->hw_addr + REG_VPD_CAP);

 for (i = 0; i < 10; i++) {
  msleep(2);
  control = ioread32(hw->hw_addr + REG_VPD_CAP);
  if (control & VPD_CAP_VPD_FLAG)
   break;
 }
 if (control & VPD_CAP_VPD_FLAG) {
  *p_value = ioread32(hw->hw_addr + REG_VPD_DATA);
  return true;
 }
 /* timeout */
 return false;
}

/*
 * Reads the value from a PHY register
 * hw - Struct containing variables accessed by shared code
 * reg_addr - address of the PHY register to read
 */

static s32 atl1_read_phy_reg(struct atl1_hw *hw, u16 reg_addr, u16 *phy_data)
{
 u32 val;
 int i;

 val = ((u32) (reg_addr & MDIO_REG_ADDR_MASK)) << MDIO_REG_ADDR_SHIFT |
  MDIO_START | MDIO_SUP_PREAMBLE | MDIO_RW | MDIO_CLK_25_4 <<
  MDIO_CLK_SEL_SHIFT;
 iowrite32(val, hw->hw_addr + REG_MDIO_CTRL);
 ioread32(hw->hw_addr + REG_MDIO_CTRL);

 for (i = 0; i < MDIO_WAIT_TIMES; i++) {
  udelay(2);
  val = ioread32(hw->hw_addr + REG_MDIO_CTRL);
  if (!(val & (MDIO_START | MDIO_BUSY)))
   break;
 }
 if (!(val & (MDIO_START | MDIO_BUSY))) {
  *phy_data = (u16) val;
  return 0;
 }
 return ATLX_ERR_PHY;
}

#define CUSTOM_SPI_CS_SETUP 2
#define CUSTOM_SPI_CLK_HI 2
#define CUSTOM_SPI_CLK_LO 2
#define CUSTOM_SPI_CS_HOLD 2
#define CUSTOM_SPI_CS_HI 3

static bool atl1_spi_read(struct atl1_hw *hw, u32 addr, u32 *buf)
{
 int i;
 u32 value;

 iowrite32(0, hw->hw_addr + REG_SPI_DATA);
 iowrite32(addr, hw->hw_addr + REG_SPI_ADDR);

 value = SPI_FLASH_CTRL_WAIT_READY |
     (CUSTOM_SPI_CS_SETUP & SPI_FLASH_CTRL_CS_SETUP_MASK) <<
     SPI_FLASH_CTRL_CS_SETUP_SHIFT | (CUSTOM_SPI_CLK_HI &
          SPI_FLASH_CTRL_CLK_HI_MASK) <<
     SPI_FLASH_CTRL_CLK_HI_SHIFT | (CUSTOM_SPI_CLK_LO &
        SPI_FLASH_CTRL_CLK_LO_MASK) <<
     SPI_FLASH_CTRL_CLK_LO_SHIFT | (CUSTOM_SPI_CS_HOLD &
        SPI_FLASH_CTRL_CS_HOLD_MASK) <<
     SPI_FLASH_CTRL_CS_HOLD_SHIFT | (CUSTOM_SPI_CS_HI &
         SPI_FLASH_CTRL_CS_HI_MASK) <<
     SPI_FLASH_CTRL_CS_HI_SHIFT | (1 & SPI_FLASH_CTRL_INS_MASK) <<
     SPI_FLASH_CTRL_INS_SHIFT;

 iowrite32(value, hw->hw_addr + REG_SPI_FLASH_CTRL);

 value |= SPI_FLASH_CTRL_START;
 iowrite32(value, hw->hw_addr + REG_SPI_FLASH_CTRL);
 ioread32(hw->hw_addr + REG_SPI_FLASH_CTRL);

 for (i = 0; i < 10; i++) {
  msleep(1);
  value = ioread32(hw->hw_addr + REG_SPI_FLASH_CTRL);
  if (!(value & SPI_FLASH_CTRL_START))
   break;
 }

 if (value & SPI_FLASH_CTRL_START)
  return false;

 *buf = ioread32(hw->hw_addr + REG_SPI_DATA);

 return true;
}

/*
 * get_permanent_address
 * return 0 if get valid mac address,
 */

static int atl1_get_permanent_address(struct atl1_hw *hw)
{
 u32 addr[2];
 u32 i, control;
 u16 reg;
 u8 eth_addr[ETH_ALEN];
 bool key_valid;

 if (is_valid_ether_addr(hw->perm_mac_addr))
  return 0;

 /* init */
 addr[0] = addr[1] = 0;

 if (!atl1_check_eeprom_exist(hw)) {
  reg = 0;
  key_valid = false;
  /* Read out all EEPROM content */
  i = 0;
  while (1) {
   if (atl1_read_eeprom(hw, i + 0x100, &control)) {
    if (key_valid) {
     if (reg == REG_MAC_STA_ADDR)
      addr[0] = control;
     else if (reg == (REG_MAC_STA_ADDR + 4))
      addr[1] = control;
     key_valid = false;
    } else if ((control & 0xff) == 0x5A) {
     key_valid = true;
     reg = (u16) (control >> 16);
    } else
     break;
   } else
    /* read error */
    break;
   i += 4;
  }

  *(u32 *) ð_addr[2] = swab32(addr[0]);
  *(u16 *) ð_addr[0] = swab16(*(u16 *) &addr[1]);
  if (is_valid_ether_addr(eth_addr)) {
   memcpy(hw->perm_mac_addr, eth_addr, ETH_ALEN);
   return 0;
  }
 }

 /* see if SPI FLAGS exist ? */
 addr[0] = addr[1] = 0;
 reg = 0;
 key_valid = false;
 i = 0;
 while (1) {
  if (atl1_spi_read(hw, i + 0x1f000, &control)) {
   if (key_valid) {
    if (reg == REG_MAC_STA_ADDR)
     addr[0] = control;
    else if (reg == (REG_MAC_STA_ADDR + 4))
     addr[1] = control;
    key_valid = false;
   } else if ((control & 0xff) == 0x5A) {
    key_valid = true;
    reg = (u16) (control >> 16);
   } else
    /* data end */
    break;
  } else
   /* read error */
   break;
  i += 4;
 }

 *(u32 *) ð_addr[2] = swab32(addr[0]);
 *(u16 *) ð_addr[0] = swab16(*(u16 *) &addr[1]);
 if (is_valid_ether_addr(eth_addr)) {
  memcpy(hw->perm_mac_addr, eth_addr, ETH_ALEN);
  return 0;
 }

 /*
 * On some motherboards, the MAC address is written by the
 * BIOS directly to the MAC register during POST, and is
 * not stored in eeprom.  If all else thus far has failed
 * to fetch the permanent MAC address, try reading it directly.
 */

 addr[0] = ioread32(hw->hw_addr + REG_MAC_STA_ADDR);
 addr[1] = ioread16(hw->hw_addr + (REG_MAC_STA_ADDR + 4));
 *(u32 *) ð_addr[2] = swab32(addr[0]);
 *(u16 *) ð_addr[0] = swab16(*(u16 *) &addr[1]);
 if (is_valid_ether_addr(eth_addr)) {
  memcpy(hw->perm_mac_addr, eth_addr, ETH_ALEN);
  return 0;
 }

 return 1;
}

/*
 * Reads the adapter's MAC address from the EEPROM
 * hw - Struct containing variables accessed by shared code
 */

static s32 atl1_read_mac_addr(struct atl1_hw *hw)
{
 s32 ret = 0;
 u16 i;

 if (atl1_get_permanent_address(hw)) {
  eth_random_addr(hw->perm_mac_addr);
  ret = 1;
 }

 for (i = 0; i < ETH_ALEN; i++)
  hw->mac_addr[i] = hw->perm_mac_addr[i];
 return ret;
}

/*
 * Hashes an address to determine its location in the multicast table
 * hw - Struct containing variables accessed by shared code
 * mc_addr - the multicast address to hash
 *
 * atl1_hash_mc_addr
 *  purpose
 *      set hash value for a multicast address
 *      hash calcu processing :
 *          1. calcu 32bit CRC for multicast address
 *          2. reverse crc with MSB to LSB
 */

static u32 atl1_hash_mc_addr(struct atl1_hw *hw, u8 *mc_addr)
{
 u32 crc32, value = 0;
 int i;

 crc32 = ether_crc_le(6, mc_addr);
 for (i = 0; i < 32; i++)
  value |= (((crc32 >> i) & 1) << (31 - i));

 return value;
}

/*
 * Sets the bit in the multicast table corresponding to the hash value.
 * hw - Struct containing variables accessed by shared code
 * hash_value - Multicast address hash value
 */

static void atl1_hash_set(struct atl1_hw *hw, u32 hash_value)
{
 u32 hash_bit, hash_reg;
 u32 mta;

 /*
 * The HASH Table  is a register array of 2 32-bit registers.
 * It is treated like an array of 64 bits.  We want to set
 * bit BitArray[hash_value]. So we figure out what register
 * the bit is in, read it, OR in the new bit, then write
 * back the new value.  The register is determined by the
 * upper 7 bits of the hash value and the bit within that
 * register are determined by the lower 5 bits of the value.
 */

 hash_reg = (hash_value >> 31) & 0x1;
 hash_bit = (hash_value >> 26) & 0x1F;
 mta = ioread32((hw->hw_addr + REG_RX_HASH_TABLE) + (hash_reg << 2));
 mta |= (1 << hash_bit);
 iowrite32(mta, (hw->hw_addr + REG_RX_HASH_TABLE) + (hash_reg << 2));
}

/*
 * Writes a value to a PHY register
 * hw - Struct containing variables accessed by shared code
 * reg_addr - address of the PHY register to write
 * data - data to write to the PHY
 */

static s32 atl1_write_phy_reg(struct atl1_hw *hw, u32 reg_addr, u16 phy_data)
{
 int i;
 u32 val;

 val = ((u32) (phy_data & MDIO_DATA_MASK)) << MDIO_DATA_SHIFT |
     (reg_addr & MDIO_REG_ADDR_MASK) << MDIO_REG_ADDR_SHIFT |
     MDIO_SUP_PREAMBLE |
     MDIO_START | MDIO_CLK_25_4 << MDIO_CLK_SEL_SHIFT;
 iowrite32(val, hw->hw_addr + REG_MDIO_CTRL);
 ioread32(hw->hw_addr + REG_MDIO_CTRL);

 for (i = 0; i < MDIO_WAIT_TIMES; i++) {
  udelay(2);
  val = ioread32(hw->hw_addr + REG_MDIO_CTRL);
  if (!(val & (MDIO_START | MDIO_BUSY)))
   break;
 }

 if (!(val & (MDIO_START | MDIO_BUSY)))
  return 0;

 return ATLX_ERR_PHY;
}

/*
 * Make L001's PHY out of Power Saving State (bug)
 * hw - Struct containing variables accessed by shared code
 * when power on, L001's PHY always on Power saving State
 * (Gigabit Link forbidden)
 */

static s32 atl1_phy_leave_power_saving(struct atl1_hw *hw)
{
 s32 ret;
 ret = atl1_write_phy_reg(hw, 29, 0x0029);
 if (ret)
  return ret;
 return atl1_write_phy_reg(hw, 30, 0);
}

/*
 * Resets the PHY and make all config validate
 * hw - Struct containing variables accessed by shared code
 *
 * Sets bit 15 and 12 of the MII Control regiser (for F001 bug)
 */

static s32 atl1_phy_reset(struct atl1_hw *hw)
{
 struct pci_dev *pdev = hw->back->pdev;
 struct atl1_adapter *adapter = hw->back;
 s32 ret_val;
 u16 phy_data;

 if (hw->media_type == MEDIA_TYPE_AUTO_SENSOR ||
     hw->media_type == MEDIA_TYPE_1000M_FULL)
  phy_data = MII_CR_RESET | MII_CR_AUTO_NEG_EN;
 else {
  switch (hw->media_type) {
  case MEDIA_TYPE_100M_FULL:
   phy_data =
       MII_CR_FULL_DUPLEX | MII_CR_SPEED_100 |
       MII_CR_RESET;
   break;
  case MEDIA_TYPE_100M_HALF:
   phy_data = MII_CR_SPEED_100 | MII_CR_RESET;
   break;
  case MEDIA_TYPE_10M_FULL:
   phy_data =
       MII_CR_FULL_DUPLEX | MII_CR_SPEED_10 | MII_CR_RESET;
   break;
  default:
   /* MEDIA_TYPE_10M_HALF: */
   phy_data = MII_CR_SPEED_10 | MII_CR_RESET;
   break;
  }
 }

 ret_val = atl1_write_phy_reg(hw, MII_BMCR, phy_data);
 if (ret_val) {
  u32 val;
  int i;
  /* pcie serdes link may be down! */
  if (netif_msg_hw(adapter))
   dev_dbg(&pdev->dev, "pcie phy link down\n");

  for (i = 0; i < 25; i++) {
   msleep(1);
   val = ioread32(hw->hw_addr + REG_MDIO_CTRL);
   if (!(val & (MDIO_START | MDIO_BUSY)))
    break;
  }

  if ((val & (MDIO_START | MDIO_BUSY)) != 0) {
   if (netif_msg_hw(adapter))
    dev_warn(&pdev->dev,
     "pcie link down at least 25ms\n");
   return ret_val;
  }
 }
 return 0;
}

/*
 * Configures PHY autoneg and flow control advertisement settings
 * hw - Struct containing variables accessed by shared code
 */

static s32 atl1_phy_setup_autoneg_adv(struct atl1_hw *hw)
{
 s32 ret_val;
 s16 mii_autoneg_adv_reg;
 s16 mii_1000t_ctrl_reg;

 /* Read the MII Auto-Neg Advertisement Register (Address 4). */
 mii_autoneg_adv_reg = MII_AR_DEFAULT_CAP_MASK;

 /* Read the MII 1000Base-T Control Register (Address 9). */
 mii_1000t_ctrl_reg = MII_ATLX_CR_1000T_DEFAULT_CAP_MASK;

 /*
 * First we clear all the 10/100 mb speed bits in the Auto-Neg
 * Advertisement Register (Address 4) and the 1000 mb speed bits in
 * the  1000Base-T Control Register (Address 9).
 */

 mii_autoneg_adv_reg &= ~MII_AR_SPEED_MASK;
 mii_1000t_ctrl_reg &= ~MII_ATLX_CR_1000T_SPEED_MASK;

 /*
 * Need to parse media_type  and set up
 * the appropriate PHY registers.
 */

 switch (hw->media_type) {
 case MEDIA_TYPE_AUTO_SENSOR:
  mii_autoneg_adv_reg |= (MII_AR_10T_HD_CAPS |
     MII_AR_10T_FD_CAPS |
     MII_AR_100TX_HD_CAPS |
     MII_AR_100TX_FD_CAPS);
  mii_1000t_ctrl_reg |= MII_ATLX_CR_1000T_FD_CAPS;
  break;

 case MEDIA_TYPE_1000M_FULL:
  mii_1000t_ctrl_reg |= MII_ATLX_CR_1000T_FD_CAPS;
  break;

 case MEDIA_TYPE_100M_FULL:
  mii_autoneg_adv_reg |= MII_AR_100TX_FD_CAPS;
  break;

 case MEDIA_TYPE_100M_HALF:
  mii_autoneg_adv_reg |= MII_AR_100TX_HD_CAPS;
  break;

 case MEDIA_TYPE_10M_FULL:
  mii_autoneg_adv_reg |= MII_AR_10T_FD_CAPS;
  break;

 default:
  mii_autoneg_adv_reg |= MII_AR_10T_HD_CAPS;
  break;
 }

 /* flow control fixed to enable all */
 mii_autoneg_adv_reg |= (MII_AR_ASM_DIR | MII_AR_PAUSE);

 hw->mii_autoneg_adv_reg = mii_autoneg_adv_reg;
 hw->mii_1000t_ctrl_reg = mii_1000t_ctrl_reg;

 ret_val = atl1_write_phy_reg(hw, MII_ADVERTISE, mii_autoneg_adv_reg);
 if (ret_val)
  return ret_val;

 ret_val = atl1_write_phy_reg(hw, MII_ATLX_CR, mii_1000t_ctrl_reg);
 if (ret_val)
  return ret_val;

 return 0;
}

/*
 * Configures link settings.
 * hw - Struct containing variables accessed by shared code
 * Assumes the hardware has previously been reset and the
 * transmitter and receiver are not enabled.
 */

static s32 atl1_setup_link(struct atl1_hw *hw)
{
 struct pci_dev *pdev = hw->back->pdev;
 struct atl1_adapter *adapter = hw->back;
 s32 ret_val;

 /*
 * Options:
 *  PHY will advertise value(s) parsed from
 *  autoneg_advertised and fc
 *  no matter what autoneg is , We will not wait link result.
 */

 ret_val = atl1_phy_setup_autoneg_adv(hw);
 if (ret_val) {
  if (netif_msg_link(adapter))
   dev_dbg(&pdev->dev,
    "error setting up autonegotiation\n");
  return ret_val;
 }
 /* SW.Reset , En-Auto-Neg if needed */
 ret_val = atl1_phy_reset(hw);
 if (ret_val) {
  if (netif_msg_link(adapter))
   dev_dbg(&pdev->dev, "error resetting phy\n");
  return ret_val;
 }
 hw->phy_configured = true;
 return ret_val;
}

static void atl1_init_flash_opcode(struct atl1_hw *hw)
{
 if (hw->flash_vendor >= ARRAY_SIZE(flash_table))
  /* Atmel */
  hw->flash_vendor = 0;

 /* Init OP table */
 iowrite8(flash_table[hw->flash_vendor].cmd_program,
  hw->hw_addr + REG_SPI_FLASH_OP_PROGRAM);
 iowrite8(flash_table[hw->flash_vendor].cmd_sector_erase,
  hw->hw_addr + REG_SPI_FLASH_OP_SC_ERASE);
 iowrite8(flash_table[hw->flash_vendor].cmd_chip_erase,
  hw->hw_addr + REG_SPI_FLASH_OP_CHIP_ERASE);
 iowrite8(flash_table[hw->flash_vendor].cmd_rdid,
  hw->hw_addr + REG_SPI_FLASH_OP_RDID);
 iowrite8(flash_table[hw->flash_vendor].cmd_wren,
  hw->hw_addr + REG_SPI_FLASH_OP_WREN);
 iowrite8(flash_table[hw->flash_vendor].cmd_rdsr,
  hw->hw_addr + REG_SPI_FLASH_OP_RDSR);
 iowrite8(flash_table[hw->flash_vendor].cmd_wrsr,
  hw->hw_addr + REG_SPI_FLASH_OP_WRSR);
 iowrite8(flash_table[hw->flash_vendor].cmd_read,
  hw->hw_addr + REG_SPI_FLASH_OP_READ);
}

/*
 * Performs basic configuration of the adapter.
 * hw - Struct containing variables accessed by shared code
 * Assumes that the controller has previously been reset and is in a
 * post-reset uninitialized state. Initializes multicast table,
 * and  Calls routines to setup link
 * Leaves the transmit and receive units disabled and uninitialized.
 */

static s32 atl1_init_hw(struct atl1_hw *hw)
{
 u32 ret_val = 0;

 /* Zero out the Multicast HASH table */
 iowrite32(0, hw->hw_addr + REG_RX_HASH_TABLE);
 /* clear the old settings from the multicast hash table */
 iowrite32(0, (hw->hw_addr + REG_RX_HASH_TABLE) + (1 << 2));

 atl1_init_flash_opcode(hw);

 if (!hw->phy_configured) {
  /* enable GPHY LinkChange Interrupt */
  ret_val = atl1_write_phy_reg(hw, 18, 0xC00);
  if (ret_val)
   return ret_val;
  /* make PHY out of power-saving state */
  ret_val = atl1_phy_leave_power_saving(hw);
  if (ret_val)
   return ret_val;
  /* Call a subroutine to configure the link */
  ret_val = atl1_setup_link(hw);
 }
 return ret_val;
}

/*
 * Detects the current speed and duplex settings of the hardware.
 * hw - Struct containing variables accessed by shared code
 * speed - Speed of the connection
 * duplex - Duplex setting of the connection
 */

static s32 atl1_get_speed_and_duplex(struct atl1_hw *hw, u16 *speed, u16 *duplex)
{
 struct pci_dev *pdev = hw->back->pdev;
 struct atl1_adapter *adapter = hw->back;
 s32 ret_val;
 u16 phy_data;

 /* ; --- Read   PHY Specific Status Register (17) */
 ret_val = atl1_read_phy_reg(hw, MII_ATLX_PSSR, &phy_data);
 if (ret_val)
  return ret_val;

 if (!(phy_data & MII_ATLX_PSSR_SPD_DPLX_RESOLVED))
  return ATLX_ERR_PHY_RES;

 switch (phy_data & MII_ATLX_PSSR_SPEED) {
 case MII_ATLX_PSSR_1000MBS:
  *speed = SPEED_1000;
  break;
 case MII_ATLX_PSSR_100MBS:
  *speed = SPEED_100;
  break;
 case MII_ATLX_PSSR_10MBS:
  *speed = SPEED_10;
  break;
 default:
  if (netif_msg_hw(adapter))
   dev_dbg(&pdev->dev, "error getting speed\n");
  return ATLX_ERR_PHY_SPEED;
 }
 if (phy_data & MII_ATLX_PSSR_DPLX)
  *duplex = FULL_DUPLEX;
 else
  *duplex = HALF_DUPLEX;

 return 0;
}

static void atl1_set_mac_addr(struct atl1_hw *hw)
{
 u32 value;
 /*
 * 00-0B-6A-F6-00-DC
 * 0:  6AF600DC   1: 000B
 * low dword
 */

 value = (((u32) hw->mac_addr[2]) << 24) |
     (((u32) hw->mac_addr[3]) << 16) |
     (((u32) hw->mac_addr[4]) << 8) | (((u32) hw->mac_addr[5]));
 iowrite32(value, hw->hw_addr + REG_MAC_STA_ADDR);
 /* high dword */
 value = (((u32) hw->mac_addr[0]) << 8) | (((u32) hw->mac_addr[1]));
 iowrite32(value, (hw->hw_addr + REG_MAC_STA_ADDR) + (1 << 2));
}

/**
 * atl1_sw_init - Initialize general software structures (struct atl1_adapter)
 * @adapter: board private structure to initialize
 *
 * atl1_sw_init initializes the Adapter private data structure.
 * Fields are initialized based on PCI device information and
 * OS network device settings (MTU size).
 */

static int atl1_sw_init(struct atl1_adapter *adapter)
{
 struct atl1_hw *hw = &adapter->hw;
 struct net_device *netdev = adapter->netdev;

 hw->max_frame_size = netdev->mtu + ETH_HLEN + ETH_FCS_LEN + VLAN_HLEN;
 hw->min_frame_size = ETH_ZLEN + ETH_FCS_LEN;

 adapter->wol = 0;
 device_set_wakeup_enable(&adapter->pdev->dev, false);
 adapter->rx_buffer_len = (hw->max_frame_size + 7) & ~7;
 adapter->ict = 50000;  /* 100ms */
 adapter->link_speed = SPEED_0; /* hardware init */
 adapter->link_duplex = FULL_DUPLEX;

 hw->phy_configured = false;
 hw->preamble_len = 7;
 hw->ipgt = 0x60;
 hw->min_ifg = 0x50;
 hw->ipgr1 = 0x40;
 hw->ipgr2 = 0x60;
 hw->max_retry = 0xf;
 hw->lcol = 0x37;
 hw->jam_ipg = 7;
 hw->rfd_burst = 8;
 hw->rrd_burst = 8;
 hw->rfd_fetch_gap = 1;
 hw->rx_jumbo_th = adapter->rx_buffer_len / 8;
 hw->rx_jumbo_lkah = 1;
 hw->rrd_ret_timer = 16;
 hw->tpd_burst = 4;
 hw->tpd_fetch_th = 16;
 hw->txf_burst = 0x100;
 hw->tx_jumbo_task_th = (hw->max_frame_size + 7) >> 3;
 hw->tpd_fetch_gap = 1;
 hw->rcb_value = atl1_rcb_64;
 hw->dma_ord = atl1_dma_ord_enh;
 hw->dmar_block = atl1_dma_req_256;
 hw->dmaw_block = atl1_dma_req_256;
 hw->cmb_rrd = 4;
 hw->cmb_tpd = 4;
 hw->cmb_rx_timer = 1; /* about 2us */
 hw->cmb_tx_timer = 1; /* about 2us */
 hw->smb_timer = 100000; /* about 200ms */

 spin_lock_init(&adapter->lock);
 spin_lock_init(&adapter->mb_lock);

 return 0;
}

static int mdio_read(struct net_device *netdev, int phy_id, int reg_num)
{
 struct atl1_adapter *adapter = netdev_priv(netdev);
 u16 result;

 atl1_read_phy_reg(&adapter->hw, reg_num & 0x1f, &result);

 return result;
}

static void mdio_write(struct net_device *netdev, int phy_id, int reg_num,
 int val)
{
 struct atl1_adapter *adapter = netdev_priv(netdev);

 atl1_write_phy_reg(&adapter->hw, reg_num, val);
}

static int atl1_mii_ioctl(struct net_device *netdev, struct ifreq *ifr, int cmd)
{
 struct atl1_adapter *adapter = netdev_priv(netdev);
 unsigned long flags;
 int retval;

 if (!netif_running(netdev))
  return -EINVAL;

 spin_lock_irqsave(&adapter->lock, flags);
 retval = generic_mii_ioctl(&adapter->mii, if_mii(ifr), cmd, NULL);
 spin_unlock_irqrestore(&adapter->lock, flags);

 return retval;
}

/**
 * atl1_setup_ring_resources - allocate Tx / RX descriptor resources
 * @adapter: board private structure
 *
 * Return 0 on success, negative on failure
 */

static s32 atl1_setup_ring_resources(struct atl1_adapter *adapter)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct atl1_rrd_ring *rrd_ring = &adapter->rrd_ring;
 struct atl1_ring_header *ring_header = &adapter->ring_header;
 struct pci_dev *pdev = adapter->pdev;
 int size;
 u8 offset = 0;

 size = sizeof(struct atl1_buffer) * (tpd_ring->count + rfd_ring->count);
 tpd_ring->buffer_info = kzalloc(size, GFP_KERNEL);
 if (unlikely(!tpd_ring->buffer_info)) {
  if (netif_msg_drv(adapter))
   dev_err(&pdev->dev, "kzalloc failed , size = D%d\n",
    size);
  goto err_nomem;
 }
 rfd_ring->buffer_info =
  (tpd_ring->buffer_info + tpd_ring->count);

 /*
 * real ring DMA buffer
 * each ring/block may need up to 8 bytes for alignment, hence the
 * additional 40 bytes tacked onto the end.
 */

 ring_header->size =
  sizeof(struct tx_packet_desc) * tpd_ring->count
  + sizeof(struct rx_free_desc) * rfd_ring->count
  + sizeof(struct rx_return_desc) * rrd_ring->count
  + sizeof(struct coals_msg_block)
  + sizeof(struct stats_msg_block)
  + 40;

 ring_header->desc = dma_alloc_coherent(&pdev->dev, ring_header->size,
            &ring_header->dma, GFP_KERNEL);
 if (unlikely(!ring_header->desc)) {
  if (netif_msg_drv(adapter))
   dev_err(&pdev->dev, "dma_alloc_coherent failed\n");
  goto err_nomem;
 }

 /* init TPD ring */
 tpd_ring->dma = ring_header->dma;
 offset = (tpd_ring->dma & 0x7) ? (8 - (ring_header->dma & 0x7)) : 0;
 tpd_ring->dma += offset;
 tpd_ring->desc = (u8 *) ring_header->desc + offset;
 tpd_ring->size = sizeof(struct tx_packet_desc) * tpd_ring->count;

 /* init RFD ring */
 rfd_ring->dma = tpd_ring->dma + tpd_ring->size;
 offset = (rfd_ring->dma & 0x7) ? (8 - (rfd_ring->dma & 0x7)) : 0;
 rfd_ring->dma += offset;
 rfd_ring->desc = (u8 *) tpd_ring->desc + (tpd_ring->size + offset);
 rfd_ring->size = sizeof(struct rx_free_desc) * rfd_ring->count;


 /* init RRD ring */
 rrd_ring->dma = rfd_ring->dma + rfd_ring->size;
 offset = (rrd_ring->dma & 0x7) ? (8 - (rrd_ring->dma & 0x7)) : 0;
 rrd_ring->dma += offset;
 rrd_ring->desc = (u8 *) rfd_ring->desc + (rfd_ring->size + offset);
 rrd_ring->size = sizeof(struct rx_return_desc) * rrd_ring->count;


 /* init CMB */
 adapter->cmb.dma = rrd_ring->dma + rrd_ring->size;
 offset = (adapter->cmb.dma & 0x7) ? (8 - (adapter->cmb.dma & 0x7)) : 0;
 adapter->cmb.dma += offset;
 adapter->cmb.cmb = (struct coals_msg_block *)
  ((u8 *) rrd_ring->desc + (rrd_ring->size + offset));

 /* init SMB */
 adapter->smb.dma = adapter->cmb.dma + sizeof(struct coals_msg_block);
 offset = (adapter->smb.dma & 0x7) ? (8 - (adapter->smb.dma & 0x7)) : 0;
 adapter->smb.dma += offset;
 adapter->smb.smb = (struct stats_msg_block *)
  ((u8 *) adapter->cmb.cmb +
  (sizeof(struct coals_msg_block) + offset));

 return 0;

err_nomem:
 kfree(tpd_ring->buffer_info);
 return -ENOMEM;
}

static void atl1_init_ring_ptrs(struct atl1_adapter *adapter)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct atl1_rrd_ring *rrd_ring = &adapter->rrd_ring;

 atomic_set(&tpd_ring->next_to_use, 0);
 atomic_set(&tpd_ring->next_to_clean, 0);

 rfd_ring->next_to_clean = 0;
 atomic_set(&rfd_ring->next_to_use, 0);

 rrd_ring->next_to_use = 0;
 atomic_set(&rrd_ring->next_to_clean, 0);
}

/**
 * atl1_clean_rx_ring - Free RFD Buffers
 * @adapter: board private structure
 */

static void atl1_clean_rx_ring(struct atl1_adapter *adapter)
{
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct atl1_rrd_ring *rrd_ring = &adapter->rrd_ring;
 struct atl1_buffer *buffer_info;
 struct pci_dev *pdev = adapter->pdev;
 unsigned long size;
 unsigned int i;

 /* Free all the Rx ring sk_buffs */
 for (i = 0; i < rfd_ring->count; i++) {
  buffer_info = &rfd_ring->buffer_info[i];
  if (buffer_info->dma) {
   dma_unmap_page(&pdev->dev, buffer_info->dma,
           buffer_info->length, DMA_FROM_DEVICE);
   buffer_info->dma = 0;
  }
  if (buffer_info->skb) {
   dev_kfree_skb(buffer_info->skb);
   buffer_info->skb = NULL;
  }
 }

 size = sizeof(struct atl1_buffer) * rfd_ring->count;
 memset(rfd_ring->buffer_info, 0, size);

 /* Zero out the descriptor ring */
 memset(rfd_ring->desc, 0, rfd_ring->size);

 rfd_ring->next_to_clean = 0;
 atomic_set(&rfd_ring->next_to_use, 0);

 rrd_ring->next_to_use = 0;
 atomic_set(&rrd_ring->next_to_clean, 0);
}

/**
 * atl1_clean_tx_ring - Free Tx Buffers
 * @adapter: board private structure
 */

static void atl1_clean_tx_ring(struct atl1_adapter *adapter)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_buffer *buffer_info;
 struct pci_dev *pdev = adapter->pdev;
 unsigned long size;
 unsigned int i;

 /* Free all the Tx ring sk_buffs */
 for (i = 0; i < tpd_ring->count; i++) {
  buffer_info = &tpd_ring->buffer_info[i];
  if (buffer_info->dma) {
   dma_unmap_page(&pdev->dev, buffer_info->dma,
           buffer_info->length, DMA_TO_DEVICE);
   buffer_info->dma = 0;
  }
 }

 for (i = 0; i < tpd_ring->count; i++) {
  buffer_info = &tpd_ring->buffer_info[i];
  if (buffer_info->skb) {
   dev_kfree_skb_any(buffer_info->skb);
   buffer_info->skb = NULL;
  }
 }

 size = sizeof(struct atl1_buffer) * tpd_ring->count;
 memset(tpd_ring->buffer_info, 0, size);

 /* Zero out the descriptor ring */
 memset(tpd_ring->desc, 0, tpd_ring->size);

 atomic_set(&tpd_ring->next_to_use, 0);
 atomic_set(&tpd_ring->next_to_clean, 0);
}

/**
 * atl1_free_ring_resources - Free Tx / RX descriptor Resources
 * @adapter: board private structure
 *
 * Free all transmit software resources
 */

static void atl1_free_ring_resources(struct atl1_adapter *adapter)
{
 struct pci_dev *pdev = adapter->pdev;
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct atl1_rrd_ring *rrd_ring = &adapter->rrd_ring;
 struct atl1_ring_header *ring_header = &adapter->ring_header;

 atl1_clean_tx_ring(adapter);
 atl1_clean_rx_ring(adapter);

 kfree(tpd_ring->buffer_info);
 dma_free_coherent(&pdev->dev, ring_header->size, ring_header->desc,
     ring_header->dma);

 tpd_ring->buffer_info = NULL;
 tpd_ring->desc = NULL;
 tpd_ring->dma = 0;

 rfd_ring->buffer_info = NULL;
 rfd_ring->desc = NULL;
 rfd_ring->dma = 0;

 rrd_ring->desc = NULL;
 rrd_ring->dma = 0;

 adapter->cmb.dma = 0;
 adapter->cmb.cmb = NULL;

 adapter->smb.dma = 0;
 adapter->smb.smb = NULL;
}

static void atl1_setup_mac_ctrl(struct atl1_adapter *adapter)
{
 u32 value;
 struct atl1_hw *hw = &adapter->hw;
 struct net_device *netdev = adapter->netdev;
 /* Config MAC CTRL Register */
 value = MAC_CTRL_TX_EN | MAC_CTRL_RX_EN;
 /* duplex */
 if (FULL_DUPLEX == adapter->link_duplex)
  value |= MAC_CTRL_DUPLX;
 /* speed */
 value |= ((u32) ((SPEED_1000 == adapter->link_speed) ?
    MAC_CTRL_SPEED_1000 : MAC_CTRL_SPEED_10_100) <<
    MAC_CTRL_SPEED_SHIFT);
 /* flow control */
 value |= (MAC_CTRL_TX_FLOW | MAC_CTRL_RX_FLOW);
 /* PAD & CRC */
 value |= (MAC_CTRL_ADD_CRC | MAC_CTRL_PAD);
 /* preamble length */
 value |= (((u32) adapter->hw.preamble_len
     & MAC_CTRL_PRMLEN_MASK) << MAC_CTRL_PRMLEN_SHIFT);
 /* vlan */
 __atlx_vlan_mode(netdev->features, &value);
 /* rx checksum
   if (adapter->rx_csum)
   value |= MAC_CTRL_RX_CHKSUM_EN;
 */

 /* filter mode */
 value |= MAC_CTRL_BC_EN;
 if (netdev->flags & IFF_PROMISC)
  value |= MAC_CTRL_PROMIS_EN;
 else if (netdev->flags & IFF_ALLMULTI)
  value |= MAC_CTRL_MC_ALL_EN;
 /* value |= MAC_CTRL_LOOPBACK; */
 iowrite32(value, hw->hw_addr + REG_MAC_CTRL);
}

static u32 atl1_check_link(struct atl1_adapter *adapter)
{
 struct atl1_hw *hw = &adapter->hw;
 struct net_device *netdev = adapter->netdev;
 u32 ret_val;
 u16 speed, duplex, phy_data;
 int reconfig = 0;

 /* MII_BMSR must read twice */
 atl1_read_phy_reg(hw, MII_BMSR, &phy_data);
 atl1_read_phy_reg(hw, MII_BMSR, &phy_data);
 if (!(phy_data & BMSR_LSTATUS)) {
  /* link down */
  if (netif_carrier_ok(netdev)) {
   /* old link state: Up */
   if (netif_msg_link(adapter))
    dev_info(&adapter->pdev->dev, "link is down\n");
   adapter->link_speed = SPEED_0;
   netif_carrier_off(netdev);
  }
  return 0;
 }

 /* Link Up */
 ret_val = atl1_get_speed_and_duplex(hw, &speed, &duplex);
 if (ret_val)
  return ret_val;

 switch (hw->media_type) {
 case MEDIA_TYPE_1000M_FULL:
  if (speed != SPEED_1000 || duplex != FULL_DUPLEX)
   reconfig = 1;
  break;
 case MEDIA_TYPE_100M_FULL:
  if (speed != SPEED_100 || duplex != FULL_DUPLEX)
   reconfig = 1;
  break;
 case MEDIA_TYPE_100M_HALF:
  if (speed != SPEED_100 || duplex != HALF_DUPLEX)
   reconfig = 1;
  break;
 case MEDIA_TYPE_10M_FULL:
  if (speed != SPEED_10 || duplex != FULL_DUPLEX)
   reconfig = 1;
  break;
 case MEDIA_TYPE_10M_HALF:
  if (speed != SPEED_10 || duplex != HALF_DUPLEX)
   reconfig = 1;
  break;
 }

 /* link result is our setting */
 if (!reconfig) {
  if (adapter->link_speed != speed ||
      adapter->link_duplex != duplex) {
   adapter->link_speed = speed;
   adapter->link_duplex = duplex;
   atl1_setup_mac_ctrl(adapter);
   if (netif_msg_link(adapter))
    dev_info(&adapter->pdev->dev,
     "%s link is up %d Mbps %s\n",
     netdev->name, adapter->link_speed,
     adapter->link_duplex == FULL_DUPLEX ?
     "full duplex" : "half duplex");
  }
  if (!netif_carrier_ok(netdev)) {
   /* Link down -> Up */
   netif_carrier_on(netdev);
  }
  return 0;
 }

 /* change original link status */
 if (netif_carrier_ok(netdev)) {
  adapter->link_speed = SPEED_0;
  netif_carrier_off(netdev);
  netif_stop_queue(netdev);
 }

 if (hw->media_type != MEDIA_TYPE_AUTO_SENSOR &&
     hw->media_type != MEDIA_TYPE_1000M_FULL) {
  switch (hw->media_type) {
  case MEDIA_TYPE_100M_FULL:
   phy_data = MII_CR_FULL_DUPLEX | MII_CR_SPEED_100 |
              MII_CR_RESET;
   break;
  case MEDIA_TYPE_100M_HALF:
   phy_data = MII_CR_SPEED_100 | MII_CR_RESET;
   break;
  case MEDIA_TYPE_10M_FULL:
   phy_data =
       MII_CR_FULL_DUPLEX | MII_CR_SPEED_10 | MII_CR_RESET;
   break;
  default:
   /* MEDIA_TYPE_10M_HALF: */
   phy_data = MII_CR_SPEED_10 | MII_CR_RESET;
   break;
  }
  atl1_write_phy_reg(hw, MII_BMCR, phy_data);
  return 0;
 }

 /* auto-neg, insert timer to re-config phy */
 if (!adapter->phy_timer_pending) {
  adapter->phy_timer_pending = true;
  mod_timer(&adapter->phy_config_timer,
     round_jiffies(jiffies + 3 * HZ));
 }

 return 0;
}

static void set_flow_ctrl_old(struct atl1_adapter *adapter)
{
 u32 hi, lo, value;

 /* RFD Flow Control */
 value = adapter->rfd_ring.count;
 hi = value / 16;
 if (hi < 2)
  hi = 2;
 lo = value * 7 / 8;

 value = ((hi & RXQ_RXF_PAUSE_TH_HI_MASK) << RXQ_RXF_PAUSE_TH_HI_SHIFT) |
  ((lo & RXQ_RXF_PAUSE_TH_LO_MASK) << RXQ_RXF_PAUSE_TH_LO_SHIFT);
 iowrite32(value, adapter->hw.hw_addr + REG_RXQ_RXF_PAUSE_THRESH);

 /* RRD Flow Control */
 value = adapter->rrd_ring.count;
 lo = value / 16;
 hi = value * 7 / 8;
 if (lo < 2)
  lo = 2;
 value = ((hi & RXQ_RRD_PAUSE_TH_HI_MASK) << RXQ_RRD_PAUSE_TH_HI_SHIFT) |
  ((lo & RXQ_RRD_PAUSE_TH_LO_MASK) << RXQ_RRD_PAUSE_TH_LO_SHIFT);
 iowrite32(value, adapter->hw.hw_addr + REG_RXQ_RRD_PAUSE_THRESH);
}

static void set_flow_ctrl_new(struct atl1_hw *hw)
{
 u32 hi, lo, value;

 /* RXF Flow Control */
 value = ioread32(hw->hw_addr + REG_SRAM_RXF_LEN);
 lo = value / 16;
 if (lo < 192)
  lo = 192;
 hi = value * 7 / 8;
 if (hi < lo)
  hi = lo + 16;
 value = ((hi & RXQ_RXF_PAUSE_TH_HI_MASK) << RXQ_RXF_PAUSE_TH_HI_SHIFT) |
  ((lo & RXQ_RXF_PAUSE_TH_LO_MASK) << RXQ_RXF_PAUSE_TH_LO_SHIFT);
 iowrite32(value, hw->hw_addr + REG_RXQ_RXF_PAUSE_THRESH);

 /* RRD Flow Control */
 value = ioread32(hw->hw_addr + REG_SRAM_RRD_LEN);
 lo = value / 8;
 hi = value * 7 / 8;
 if (lo < 2)
  lo = 2;
 if (hi < lo)
  hi = lo + 3;
 value = ((hi & RXQ_RRD_PAUSE_TH_HI_MASK) << RXQ_RRD_PAUSE_TH_HI_SHIFT) |
  ((lo & RXQ_RRD_PAUSE_TH_LO_MASK) << RXQ_RRD_PAUSE_TH_LO_SHIFT);
 iowrite32(value, hw->hw_addr + REG_RXQ_RRD_PAUSE_THRESH);
}

/**
 * atl1_configure - Configure Transmit&Receive Unit after Reset
 * @adapter: board private structure
 *
 * Configure the Tx /Rx unit of the MAC after a reset.
 */

static u32 atl1_configure(struct atl1_adapter *adapter)
{
 struct atl1_hw *hw = &adapter->hw;
 u32 value;

 /* clear interrupt status */
 iowrite32(0xffffffff, adapter->hw.hw_addr + REG_ISR);

 /* set MAC Address */
 value = (((u32) hw->mac_addr[2]) << 24) |
  (((u32) hw->mac_addr[3]) << 16) |
  (((u32) hw->mac_addr[4]) << 8) |
  (((u32) hw->mac_addr[5]));
 iowrite32(value, hw->hw_addr + REG_MAC_STA_ADDR);
 value = (((u32) hw->mac_addr[0]) << 8) | (((u32) hw->mac_addr[1]));
 iowrite32(value, hw->hw_addr + (REG_MAC_STA_ADDR + 4));

 /* tx / rx ring */

 /* HI base address */
 iowrite32((u32) ((adapter->tpd_ring.dma & 0xffffffff00000000ULL) >> 32),
  hw->hw_addr + REG_DESC_BASE_ADDR_HI);
 /* LO base address */
 iowrite32((u32) (adapter->rfd_ring.dma & 0x00000000ffffffffULL),
  hw->hw_addr + REG_DESC_RFD_ADDR_LO);
 iowrite32((u32) (adapter->rrd_ring.dma & 0x00000000ffffffffULL),
  hw->hw_addr + REG_DESC_RRD_ADDR_LO);
 iowrite32((u32) (adapter->tpd_ring.dma & 0x00000000ffffffffULL),
  hw->hw_addr + REG_DESC_TPD_ADDR_LO);
 iowrite32((u32) (adapter->cmb.dma & 0x00000000ffffffffULL),
  hw->hw_addr + REG_DESC_CMB_ADDR_LO);
 iowrite32((u32) (adapter->smb.dma & 0x00000000ffffffffULL),
  hw->hw_addr + REG_DESC_SMB_ADDR_LO);

 /* element count */
 value = adapter->rrd_ring.count;
 value <<= 16;
 value += adapter->rfd_ring.count;
 iowrite32(value, hw->hw_addr + REG_DESC_RFD_RRD_RING_SIZE);
 iowrite32(adapter->tpd_ring.count, hw->hw_addr +
  REG_DESC_TPD_RING_SIZE);

 /* Load Ptr */
 iowrite32(1, hw->hw_addr + REG_LOAD_PTR);

 /* config Mailbox */
 value = ((atomic_read(&adapter->tpd_ring.next_to_use)
    & MB_TPD_PROD_INDX_MASK) << MB_TPD_PROD_INDX_SHIFT) |
  ((atomic_read(&adapter->rrd_ring.next_to_clean)
  & MB_RRD_CONS_INDX_MASK) << MB_RRD_CONS_INDX_SHIFT) |
  ((atomic_read(&adapter->rfd_ring.next_to_use)
  & MB_RFD_PROD_INDX_MASK) << MB_RFD_PROD_INDX_SHIFT);
 iowrite32(value, hw->hw_addr + REG_MAILBOX);

 /* config IPG/IFG */
 value = (((u32) hw->ipgt & MAC_IPG_IFG_IPGT_MASK)
   << MAC_IPG_IFG_IPGT_SHIFT) |
  (((u32) hw->min_ifg & MAC_IPG_IFG_MIFG_MASK)
  << MAC_IPG_IFG_MIFG_SHIFT) |
  (((u32) hw->ipgr1 & MAC_IPG_IFG_IPGR1_MASK)
  << MAC_IPG_IFG_IPGR1_SHIFT) |
  (((u32) hw->ipgr2 & MAC_IPG_IFG_IPGR2_MASK)
  << MAC_IPG_IFG_IPGR2_SHIFT);
 iowrite32(value, hw->hw_addr + REG_MAC_IPG_IFG);

 /* config  Half-Duplex Control */
 value = ((u32) hw->lcol & MAC_HALF_DUPLX_CTRL_LCOL_MASK) |
  (((u32) hw->max_retry & MAC_HALF_DUPLX_CTRL_RETRY_MASK)
  << MAC_HALF_DUPLX_CTRL_RETRY_SHIFT) |
  MAC_HALF_DUPLX_CTRL_EXC_DEF_EN |
  (0xa << MAC_HALF_DUPLX_CTRL_ABEBT_SHIFT) |
  (((u32) hw->jam_ipg & MAC_HALF_DUPLX_CTRL_JAMIPG_MASK)
  << MAC_HALF_DUPLX_CTRL_JAMIPG_SHIFT);
 iowrite32(value, hw->hw_addr + REG_MAC_HALF_DUPLX_CTRL);

 /* set Interrupt Moderator Timer */
 iowrite16(adapter->imt, hw->hw_addr + REG_IRQ_MODU_TIMER_INIT);
 iowrite32(MASTER_CTRL_ITIMER_EN, hw->hw_addr + REG_MASTER_CTRL);

 /* set Interrupt Clear Timer */
 iowrite16(adapter->ict, hw->hw_addr + REG_CMBDISDMA_TIMER);

 /* set max frame size hw will accept */
 iowrite32(hw->max_frame_size, hw->hw_addr + REG_MTU);

 /* jumbo size & rrd retirement timer */
 value = (((u32) hw->rx_jumbo_th & RXQ_JMBOSZ_TH_MASK)
   << RXQ_JMBOSZ_TH_SHIFT) |
  (((u32) hw->rx_jumbo_lkah & RXQ_JMBO_LKAH_MASK)
  << RXQ_JMBO_LKAH_SHIFT) |
  (((u32) hw->rrd_ret_timer & RXQ_RRD_TIMER_MASK)
  << RXQ_RRD_TIMER_SHIFT);
 iowrite32(value, hw->hw_addr + REG_RXQ_JMBOSZ_RRDTIM);

 /* Flow Control */
 switch (hw->dev_rev) {
 case 0x8001:
 case 0x9001:
 case 0x9002:
 case 0x9003:
  set_flow_ctrl_old(adapter);
  break;
 default:
  set_flow_ctrl_new(hw);
  break;
 }

 /* config TXQ */
 value = (((u32) hw->tpd_burst & TXQ_CTRL_TPD_BURST_NUM_MASK)
   << TXQ_CTRL_TPD_BURST_NUM_SHIFT) |
  (((u32) hw->txf_burst & TXQ_CTRL_TXF_BURST_NUM_MASK)
  << TXQ_CTRL_TXF_BURST_NUM_SHIFT) |
  (((u32) hw->tpd_fetch_th & TXQ_CTRL_TPD_FETCH_TH_MASK)
  << TXQ_CTRL_TPD_FETCH_TH_SHIFT) | TXQ_CTRL_ENH_MODE |
  TXQ_CTRL_EN;
 iowrite32(value, hw->hw_addr + REG_TXQ_CTRL);

 /* min tpd fetch gap & tx jumbo packet size threshold for taskoffload */
 value = (((u32) hw->tx_jumbo_task_th & TX_JUMBO_TASK_TH_MASK)
  << TX_JUMBO_TASK_TH_SHIFT) |
  (((u32) hw->tpd_fetch_gap & TX_TPD_MIN_IPG_MASK)
  << TX_TPD_MIN_IPG_SHIFT);
 iowrite32(value, hw->hw_addr + REG_TX_JUMBO_TASK_TH_TPD_IPG);

 /* config RXQ */
 value = (((u32) hw->rfd_burst & RXQ_CTRL_RFD_BURST_NUM_MASK)
  << RXQ_CTRL_RFD_BURST_NUM_SHIFT) |
  (((u32) hw->rrd_burst & RXQ_CTRL_RRD_BURST_THRESH_MASK)
  << RXQ_CTRL_RRD_BURST_THRESH_SHIFT) |
  (((u32) hw->rfd_fetch_gap & RXQ_CTRL_RFD_PREF_MIN_IPG_MASK)
  << RXQ_CTRL_RFD_PREF_MIN_IPG_SHIFT) | RXQ_CTRL_CUT_THRU_EN |
  RXQ_CTRL_EN;
 iowrite32(value, hw->hw_addr + REG_RXQ_CTRL);

 /* config DMA Engine */
 value = ((((u32) hw->dmar_block) & DMA_CTRL_DMAR_BURST_LEN_MASK)
  << DMA_CTRL_DMAR_BURST_LEN_SHIFT) |
  ((((u32) hw->dmaw_block) & DMA_CTRL_DMAW_BURST_LEN_MASK)
  << DMA_CTRL_DMAW_BURST_LEN_SHIFT) | DMA_CTRL_DMAR_EN |
  DMA_CTRL_DMAW_EN;
 value |= (u32) hw->dma_ord;
 if (atl1_rcb_128 == hw->rcb_value)
  value |= DMA_CTRL_RCB_VALUE;
 iowrite32(value, hw->hw_addr + REG_DMA_CTRL);

 /* config CMB / SMB */
 value = (hw->cmb_tpd > adapter->tpd_ring.count) ?
  hw->cmb_tpd : adapter->tpd_ring.count;
 value <<= 16;
 value |= hw->cmb_rrd;
 iowrite32(value, hw->hw_addr + REG_CMB_WRITE_TH);
 value = hw->cmb_rx_timer | ((u32) hw->cmb_tx_timer << 16);
 iowrite32(value, hw->hw_addr + REG_CMB_WRITE_TIMER);
 iowrite32(hw->smb_timer, hw->hw_addr + REG_SMB_TIMER);

 /* --- enable CMB / SMB */
 value = CSMB_CTRL_CMB_EN | CSMB_CTRL_SMB_EN;
 iowrite32(value, hw->hw_addr + REG_CSMB_CTRL);

 value = ioread32(adapter->hw.hw_addr + REG_ISR);
 if (unlikely((value & ISR_PHY_LINKDOWN) != 0))
  value = 1; /* config failed */
 else
  value = 0;

 /* clear all interrupt status */
 iowrite32(0x3fffffff, adapter->hw.hw_addr + REG_ISR);
 iowrite32(0, adapter->hw.hw_addr + REG_ISR);
 return value;
}

/*
 * atl1_pcie_patch - Patch for PCIE module
 */

static void atl1_pcie_patch(struct atl1_adapter *adapter)
{
 u32 value;

 /* much vendor magic here */
 value = 0x6500;
 iowrite32(value, adapter->hw.hw_addr + 0x12FC);
 /* pcie flow control mode change */
 value = ioread32(adapter->hw.hw_addr + 0x1008);
 value |= 0x8000;
 iowrite32(value, adapter->hw.hw_addr + 0x1008);
}

/*
 * When ACPI resume on some VIA MotherBoard, the Interrupt Disable bit/0x400
 * on PCI Command register is disable.
 * The function enable this bit.
 * Brackett, 2006/03/15
 */

static void atl1_via_workaround(struct atl1_adapter *adapter)
{
 unsigned long value;

 value = ioread16(adapter->hw.hw_addr + PCI_COMMAND);
 if (value & PCI_COMMAND_INTX_DISABLE)
  value &= ~PCI_COMMAND_INTX_DISABLE;
 iowrite32(value, adapter->hw.hw_addr + PCI_COMMAND);
}

static void atl1_inc_smb(struct atl1_adapter *adapter)
{
 struct net_device *netdev = adapter->netdev;
 struct stats_msg_block *smb = adapter->smb.smb;

 u64 new_rx_errors = smb->rx_frag +
       smb->rx_fcs_err +
       smb->rx_len_err +
       smb->rx_sz_ov +
       smb->rx_rxf_ov +
       smb->rx_rrd_ov +
       smb->rx_align_err;
 u64 new_tx_errors = smb->tx_late_col +
       smb->tx_abort_col +
       smb->tx_underrun +
       smb->tx_trunc;

 /* Fill out the OS statistics structure */
 adapter->soft_stats.rx_packets += smb->rx_ok + new_rx_errors;
 adapter->soft_stats.tx_packets += smb->tx_ok + new_tx_errors;
 adapter->soft_stats.rx_bytes += smb->rx_byte_cnt;
 adapter->soft_stats.tx_bytes += smb->tx_byte_cnt;
 adapter->soft_stats.multicast += smb->rx_mcast;
 adapter->soft_stats.collisions += smb->tx_1_col +
       smb->tx_2_col +
       smb->tx_late_col +
       smb->tx_abort_col;

 /* Rx Errors */
 adapter->soft_stats.rx_errors += new_rx_errors;
 adapter->soft_stats.rx_fifo_errors += smb->rx_rxf_ov;
 adapter->soft_stats.rx_length_errors += smb->rx_len_err;
 adapter->soft_stats.rx_crc_errors += smb->rx_fcs_err;
 adapter->soft_stats.rx_frame_errors += smb->rx_align_err;

 adapter->soft_stats.rx_pause += smb->rx_pause;
 adapter->soft_stats.rx_rrd_ov += smb->rx_rrd_ov;
 adapter->soft_stats.rx_trunc += smb->rx_sz_ov;

 /* Tx Errors */
 adapter->soft_stats.tx_errors += new_tx_errors;
 adapter->soft_stats.tx_fifo_errors += smb->tx_underrun;
 adapter->soft_stats.tx_aborted_errors += smb->tx_abort_col;
 adapter->soft_stats.tx_window_errors += smb->tx_late_col;

 adapter->soft_stats.excecol += smb->tx_abort_col;
 adapter->soft_stats.deffer += smb->tx_defer;
 adapter->soft_stats.scc += smb->tx_1_col;
 adapter->soft_stats.mcc += smb->tx_2_col;
 adapter->soft_stats.latecol += smb->tx_late_col;
 adapter->soft_stats.tx_underrun += smb->tx_underrun;
 adapter->soft_stats.tx_trunc += smb->tx_trunc;
 adapter->soft_stats.tx_pause += smb->tx_pause;

 netdev->stats.rx_bytes = adapter->soft_stats.rx_bytes;
 netdev->stats.tx_bytes = adapter->soft_stats.tx_bytes;
 netdev->stats.multicast = adapter->soft_stats.multicast;
 netdev->stats.collisions = adapter->soft_stats.collisions;
 netdev->stats.rx_errors = adapter->soft_stats.rx_errors;
 netdev->stats.rx_length_errors =
  adapter->soft_stats.rx_length_errors;
 netdev->stats.rx_crc_errors = adapter->soft_stats.rx_crc_errors;
 netdev->stats.rx_frame_errors =
  adapter->soft_stats.rx_frame_errors;
 netdev->stats.rx_fifo_errors = adapter->soft_stats.rx_fifo_errors;
 netdev->stats.rx_dropped = adapter->soft_stats.rx_rrd_ov;
 netdev->stats.tx_errors = adapter->soft_stats.tx_errors;
 netdev->stats.tx_fifo_errors = adapter->soft_stats.tx_fifo_errors;
 netdev->stats.tx_aborted_errors =
  adapter->soft_stats.tx_aborted_errors;
 netdev->stats.tx_window_errors =
  adapter->soft_stats.tx_window_errors;
 netdev->stats.tx_carrier_errors =
  adapter->soft_stats.tx_carrier_errors;

 netdev->stats.rx_packets = adapter->soft_stats.rx_packets;
 netdev->stats.tx_packets = adapter->soft_stats.tx_packets;
}

static void atl1_update_mailbox(struct atl1_adapter *adapter)
{
 unsigned long flags;
 u32 tpd_next_to_use;
 u32 rfd_next_to_use;
 u32 rrd_next_to_clean;
 u32 value;

 spin_lock_irqsave(&adapter->mb_lock, flags);

 tpd_next_to_use = atomic_read(&adapter->tpd_ring.next_to_use);
 rfd_next_to_use = atomic_read(&adapter->rfd_ring.next_to_use);
 rrd_next_to_clean = atomic_read(&adapter->rrd_ring.next_to_clean);

 value = ((rfd_next_to_use & MB_RFD_PROD_INDX_MASK) <<
  MB_RFD_PROD_INDX_SHIFT) |
  ((rrd_next_to_clean & MB_RRD_CONS_INDX_MASK) <<
  MB_RRD_CONS_INDX_SHIFT) |
  ((tpd_next_to_use & MB_TPD_PROD_INDX_MASK) <<
  MB_TPD_PROD_INDX_SHIFT);
 iowrite32(value, adapter->hw.hw_addr + REG_MAILBOX);

 spin_unlock_irqrestore(&adapter->mb_lock, flags);
}

static void atl1_clean_alloc_flag(struct atl1_adapter *adapter,
 struct rx_return_desc *rrd, u16 offset)
{
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;

 while (rfd_ring->next_to_clean != (rrd->buf_indx + offset)) {
  rfd_ring->buffer_info[rfd_ring->next_to_clean].alloced = 0;
  if (++rfd_ring->next_to_clean == rfd_ring->count) {
   rfd_ring->next_to_clean = 0;
  }
 }
}

static void atl1_update_rfd_index(struct atl1_adapter *adapter,
 struct rx_return_desc *rrd)
{
 u16 num_buf;

 num_buf = (rrd->xsz.xsum_sz.pkt_size + adapter->rx_buffer_len - 1) /
  adapter->rx_buffer_len;
 if (rrd->num_buf == num_buf)
  /* clean alloc flag for bad rrd */
  atl1_clean_alloc_flag(adapter, rrd, num_buf);
}

static void atl1_rx_checksum(struct atl1_adapter *adapter,
 struct rx_return_desc *rrd, struct sk_buff *skb)
{
 struct pci_dev *pdev = adapter->pdev;

 /*
 * The L1 hardware contains a bug that erroneously sets the
 * PACKET_FLAG_ERR and ERR_FLAG_L4_CHKSUM bits whenever a
 * fragmented IP packet is received, even though the packet
 * is perfectly valid and its checksum is correct. There's
 * no way to distinguish between one of these good packets
 * and a packet that actually contains a TCP/UDP checksum
 * error, so all we can do is allow it to be handed up to
 * the higher layers and let it be sorted out there.
 */


 skb_checksum_none_assert(skb);

 if (unlikely(rrd->pkt_flg & PACKET_FLAG_ERR)) {
  if (rrd->err_flg & (ERR_FLAG_CRC | ERR_FLAG_TRUNC |
     ERR_FLAG_CODE | ERR_FLAG_OV)) {
   adapter->hw_csum_err++;
   if (netif_msg_rx_err(adapter))
    dev_printk(KERN_DEBUG, &pdev->dev,
     "rx checksum error\n");
   return;
  }
 }

 /* not IPv4 */
 if (!(rrd->pkt_flg & PACKET_FLAG_IPV4))
  /* checksum is invalid, but it's not an IPv4 pkt, so ok */
  return;

 /* IPv4 packet */
 if (likely(!(rrd->err_flg &
  (ERR_FLAG_IP_CHKSUM | ERR_FLAG_L4_CHKSUM)))) {
  skb->ip_summed = CHECKSUM_UNNECESSARY;
  adapter->hw_csum_good++;
  return;
 }
}

/**
 * atl1_alloc_rx_buffers - Replace used receive buffers
 * @adapter: address of board private structure
 */

static u16 atl1_alloc_rx_buffers(struct atl1_adapter *adapter)
{
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct pci_dev *pdev = adapter->pdev;
 struct page *page;
 unsigned long offset;
 struct atl1_buffer *buffer_info, *next_info;
 struct sk_buff *skb;
 u16 num_alloc = 0;
 u16 rfd_next_to_use, next_next;
 struct rx_free_desc *rfd_desc;

 next_next = rfd_next_to_use = atomic_read(&rfd_ring->next_to_use);
 if (++next_next == rfd_ring->count)
  next_next = 0;
 buffer_info = &rfd_ring->buffer_info[rfd_next_to_use];
 next_info = &rfd_ring->buffer_info[next_next];

 while (!buffer_info->alloced && !next_info->alloced) {
  if (buffer_info->skb) {
   buffer_info->alloced = 1;
   goto next;
  }

  rfd_desc = ATL1_RFD_DESC(rfd_ring, rfd_next_to_use);

  skb = netdev_alloc_skb_ip_align(adapter->netdev,
      adapter->rx_buffer_len);
  if (unlikely(!skb)) {
   /* Better luck next round */
   adapter->soft_stats.rx_dropped++;
   break;
  }

  page = virt_to_page(skb->data);
  offset = offset_in_page(skb->data);
  buffer_info->dma = dma_map_page(&pdev->dev, page, offset,
      adapter->rx_buffer_len,
      DMA_FROM_DEVICE);
  if (dma_mapping_error(&pdev->dev, buffer_info->dma)) {
   kfree_skb(skb);
   adapter->soft_stats.rx_dropped++;
   break;
  }

  buffer_info->alloced = 1;
  buffer_info->skb = skb;
  buffer_info->length = (u16)adapter->rx_buffer_len;

  rfd_desc->buffer_addr = cpu_to_le64(buffer_info->dma);
  rfd_desc->buf_len = cpu_to_le16(adapter->rx_buffer_len);
  rfd_desc->coalese = 0;

next:
  rfd_next_to_use = next_next;
  if (unlikely(++next_next == rfd_ring->count))
   next_next = 0;

  buffer_info = &rfd_ring->buffer_info[rfd_next_to_use];
  next_info = &rfd_ring->buffer_info[next_next];
  num_alloc++;
 }

 if (num_alloc) {
  /*
 * Force memory writes to complete before letting h/w
 * know there are new descriptors to fetch.  (Only
 * applicable for weak-ordered memory model archs,
 * such as IA-64).
 */

  wmb();
  atomic_set(&rfd_ring->next_to_use, (int)rfd_next_to_use);
 }
 return num_alloc;
}

static int atl1_intr_rx(struct atl1_adapter *adapter, int budget)
{
 int i, count;
 u16 length;
 u16 rrd_next_to_clean;
 u32 value;
 struct atl1_rfd_ring *rfd_ring = &adapter->rfd_ring;
 struct atl1_rrd_ring *rrd_ring = &adapter->rrd_ring;
 struct atl1_buffer *buffer_info;
 struct rx_return_desc *rrd;
 struct sk_buff *skb;

 count = 0;

 rrd_next_to_clean = atomic_read(&rrd_ring->next_to_clean);

 while (count < budget) {
  rrd = ATL1_RRD_DESC(rrd_ring, rrd_next_to_clean);
  i = 1;
  if (likely(rrd->xsz.valid)) { /* packet valid */
chk_rrd:
   /* check rrd status */
   if (likely(rrd->num_buf == 1))
    goto rrd_ok;
   else if (netif_msg_rx_err(adapter)) {
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "unexpected RRD buffer count\n");
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "rx_buf_len = %d\n",
     adapter->rx_buffer_len);
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "RRD num_buf = %d\n",
     rrd->num_buf);
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "RRD pkt_len = %d\n",
     rrd->xsz.xsum_sz.pkt_size);
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "RRD pkt_flg = 0x%08X\n",
     rrd->pkt_flg);
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "RRD err_flg = 0x%08X\n",
     rrd->err_flg);
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "RRD vlan_tag = 0x%08X\n",
     rrd->vlan_tag);
   }

   /* rrd seems to be bad */
   if (unlikely(i-- > 0)) {
    /* rrd may not be DMAed completely */
    udelay(1);
    goto chk_rrd;
   }
   /* bad rrd */
   if (netif_msg_rx_err(adapter))
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "bad RRD\n");
   /* see if update RFD index */
   if (rrd->num_buf > 1)
    atl1_update_rfd_index(adapter, rrd);

   /* update rrd */
   rrd->xsz.valid = 0;
   if (++rrd_next_to_clean == rrd_ring->count)
    rrd_next_to_clean = 0;
   count++;
   continue;
  } else { /* current rrd still not be updated */

   break;
  }
rrd_ok:
  /* clean alloc flag for bad rrd */
  atl1_clean_alloc_flag(adapter, rrd, 0);

  buffer_info = &rfd_ring->buffer_info[rrd->buf_indx];
  if (++rfd_ring->next_to_clean == rfd_ring->count)
   rfd_ring->next_to_clean = 0;

  /* update rrd next to clean */
  if (++rrd_next_to_clean == rrd_ring->count)
   rrd_next_to_clean = 0;
  count++;

  if (unlikely(rrd->pkt_flg & PACKET_FLAG_ERR)) {
   if (!(rrd->err_flg &
    (ERR_FLAG_IP_CHKSUM | ERR_FLAG_L4_CHKSUM
    | ERR_FLAG_LEN))) {
    /* packet error, don't need upstream */
    buffer_info->alloced = 0;
    rrd->xsz.valid = 0;
    continue;
   }
  }

  /* Good Receive */
  dma_unmap_page(&adapter->pdev->dev, buffer_info->dma,
          buffer_info->length, DMA_FROM_DEVICE);
  buffer_info->dma = 0;
  skb = buffer_info->skb;
  length = le16_to_cpu(rrd->xsz.xsum_sz.pkt_size);

  skb_put(skb, length - ETH_FCS_LEN);

  /* Receive Checksum Offload */
  atl1_rx_checksum(adapter, rrd, skb);
  skb->protocol = eth_type_trans(skb, adapter->netdev);

  if (rrd->pkt_flg & PACKET_FLAG_VLAN_INS) {
   u16 vlan_tag = (rrd->vlan_tag >> 4) |
     ((rrd->vlan_tag & 7) << 13) |
     ((rrd->vlan_tag & 8) << 9);

   __vlan_hwaccel_put_tag(skb, htons(ETH_P_8021Q), vlan_tag);
  }
  netif_receive_skb(skb);

  /* let protocol layer free skb */
  buffer_info->skb = NULL;
  buffer_info->alloced = 0;
  rrd->xsz.valid = 0;
 }

 atomic_set(&rrd_ring->next_to_clean, rrd_next_to_clean);

 atl1_alloc_rx_buffers(adapter);

 /* update mailbox ? */
 if (count) {
  u32 tpd_next_to_use;
  u32 rfd_next_to_use;

  spin_lock(&adapter->mb_lock);

  tpd_next_to_use = atomic_read(&adapter->tpd_ring.next_to_use);
  rfd_next_to_use =
      atomic_read(&adapter->rfd_ring.next_to_use);
  rrd_next_to_clean =
      atomic_read(&adapter->rrd_ring.next_to_clean);
  value = ((rfd_next_to_use & MB_RFD_PROD_INDX_MASK) <<
   MB_RFD_PROD_INDX_SHIFT) |
                        ((rrd_next_to_clean & MB_RRD_CONS_INDX_MASK) <<
   MB_RRD_CONS_INDX_SHIFT) |
                        ((tpd_next_to_use & MB_TPD_PROD_INDX_MASK) <<
   MB_TPD_PROD_INDX_SHIFT);
  iowrite32(value, adapter->hw.hw_addr + REG_MAILBOX);
  spin_unlock(&adapter->mb_lock);
 }

 return count;
}

static int atl1_intr_tx(struct atl1_adapter *adapter)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_buffer *buffer_info;
 u16 sw_tpd_next_to_clean;
 u16 cmb_tpd_next_to_clean;
 int count = 0;

 sw_tpd_next_to_clean = atomic_read(&tpd_ring->next_to_clean);
 cmb_tpd_next_to_clean = le16_to_cpu(adapter->cmb.cmb->tpd_cons_idx);

 while (cmb_tpd_next_to_clean != sw_tpd_next_to_clean) {
  buffer_info = &tpd_ring->buffer_info[sw_tpd_next_to_clean];
  if (buffer_info->dma) {
   dma_unmap_page(&adapter->pdev->dev, buffer_info->dma,
           buffer_info->length, DMA_TO_DEVICE);
   buffer_info->dma = 0;
  }

  if (buffer_info->skb) {
   dev_consume_skb_irq(buffer_info->skb);
   buffer_info->skb = NULL;
  }

  if (++sw_tpd_next_to_clean == tpd_ring->count)
   sw_tpd_next_to_clean = 0;

  count++;
 }
 atomic_set(&tpd_ring->next_to_clean, sw_tpd_next_to_clean);

 if (netif_queue_stopped(adapter->netdev) &&
     netif_carrier_ok(adapter->netdev))
  netif_wake_queue(adapter->netdev);

 return count;
}

static u16 atl1_tpd_avail(struct atl1_tpd_ring *tpd_ring)
{
 u16 next_to_clean = atomic_read(&tpd_ring->next_to_clean);
 u16 next_to_use = atomic_read(&tpd_ring->next_to_use);
 return (next_to_clean > next_to_use) ?
  next_to_clean - next_to_use - 1 :
  tpd_ring->count + next_to_clean - next_to_use - 1;
}

static int atl1_tso(struct atl1_adapter *adapter, struct sk_buff *skb,
      struct tx_packet_desc *ptpd)
{
 u8 hdr_len, ip_off;
 u32 real_len;

 if (skb_shinfo(skb)->gso_size) {
  int err;

  err = skb_cow_head(skb, 0);
  if (err < 0)
   return err;

  if (skb->protocol == htons(ETH_P_IP)) {
   struct iphdr *iph = ip_hdr(skb);

   real_len = (((unsigned char *)iph - skb->data) +
    ntohs(iph->tot_len));
   if (real_len < skb->len) {
    err = pskb_trim(skb, real_len);
    if (err)
     return err;
   }
   hdr_len = skb_tcp_all_headers(skb);
   if (skb->len == hdr_len) {
    iph->check = 0;
    tcp_hdr(skb)->check =
     ~csum_tcpudp_magic(iph->saddr,
     iph->daddr, tcp_hdrlen(skb),
     IPPROTO_TCP, 0);
    ptpd->word3 |= (iph->ihl & TPD_IPHL_MASK) <<
     TPD_IPHL_SHIFT;
    ptpd->word3 |= ((tcp_hdrlen(skb) >> 2) &
     TPD_TCPHDRLEN_MASK) <<
     TPD_TCPHDRLEN_SHIFT;
    ptpd->word3 |= 1 << TPD_IP_CSUM_SHIFT;
    ptpd->word3 |= 1 << TPD_TCP_CSUM_SHIFT;
    return 1;
   }

   iph->check = 0;
   tcp_hdr(skb)->check = ~csum_tcpudp_magic(iph->saddr,
     iph->daddr, 0, IPPROTO_TCP, 0);
   ip_off = (unsigned char *)iph -
    (unsigned char *) skb_network_header(skb);
   if (ip_off == 8) /* 802.3-SNAP frame */
    ptpd->word3 |= 1 << TPD_ETHTYPE_SHIFT;
   else if (ip_off != 0)
    return -2;

   ptpd->word3 |= (iph->ihl & TPD_IPHL_MASK) <<
    TPD_IPHL_SHIFT;
   ptpd->word3 |= ((tcp_hdrlen(skb) >> 2) &
    TPD_TCPHDRLEN_MASK) << TPD_TCPHDRLEN_SHIFT;
   ptpd->word3 |= (skb_shinfo(skb)->gso_size &
    TPD_MSS_MASK) << TPD_MSS_SHIFT;
   ptpd->word3 |= 1 << TPD_SEGMENT_EN_SHIFT;
   return 3;
  }
 }
 return 0;
}

static int atl1_tx_csum(struct atl1_adapter *adapter, struct sk_buff *skb,
 struct tx_packet_desc *ptpd)
{
 u8 css, cso;

 if (likely(skb->ip_summed == CHECKSUM_PARTIAL)) {
  css = skb_checksum_start_offset(skb);
  cso = css + (u8) skb->csum_offset;
  if (unlikely(css & 0x1)) {
   /* L1 hardware requires an even number here */
   if (netif_msg_tx_err(adapter))
    dev_printk(KERN_DEBUG, &adapter->pdev->dev,
     "payload offset not an even number\n");
   return -1;
  }
  ptpd->word3 |= (css & TPD_PLOADOFFSET_MASK) <<
   TPD_PLOADOFFSET_SHIFT;
  ptpd->word3 |= (cso & TPD_CCSUMOFFSET_MASK) <<
   TPD_CCSUMOFFSET_SHIFT;
  ptpd->word3 |= 1 << TPD_CUST_CSUM_EN_SHIFT;
  return true;
 }
 return 0;
}

static bool atl1_tx_map(struct atl1_adapter *adapter, struct sk_buff *skb,
   struct tx_packet_desc *ptpd)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_buffer *buffer_info;
 u16 buf_len = skb->len;
 struct page *page;
 unsigned long offset;
 unsigned int nr_frags;
 unsigned int f;
 int retval;
 u16 first_mapped;
 u16 next_to_use;
 u16 data_len;
 u8 hdr_len;

 buf_len -= skb->data_len;
 nr_frags = skb_shinfo(skb)->nr_frags;
 next_to_use = atomic_read(&tpd_ring->next_to_use);
 first_mapped = next_to_use;
 buffer_info = &tpd_ring->buffer_info[next_to_use];
 BUG_ON(buffer_info->skb);
 /* put skb in last TPD */
 buffer_info->skb = NULL;

 retval = (ptpd->word3 >> TPD_SEGMENT_EN_SHIFT) & TPD_SEGMENT_EN_MASK;
 if (retval) {
  /* TSO */
  hdr_len = skb_tcp_all_headers(skb);
  buffer_info->length = hdr_len;
  page = virt_to_page(skb->data);
  offset = offset_in_page(skb->data);
  buffer_info->dma = dma_map_page(&adapter->pdev->dev, page,
      offset, hdr_len,
      DMA_TO_DEVICE);
  if (dma_mapping_error(&adapter->pdev->dev, buffer_info->dma))
   goto dma_err;

  if (++next_to_use == tpd_ring->count)
   next_to_use = 0;

  if (buf_len > hdr_len) {
   int i, nseg;

   data_len = buf_len - hdr_len;
   nseg = (data_len + ATL1_MAX_TX_BUF_LEN - 1) /
    ATL1_MAX_TX_BUF_LEN;
   for (i = 0; i < nseg; i++) {
    buffer_info =
        &tpd_ring->buffer_info[next_to_use];
    buffer_info->skb = NULL;
    buffer_info->length =
        (ATL1_MAX_TX_BUF_LEN >=
         data_len) ? ATL1_MAX_TX_BUF_LEN : data_len;
    data_len -= buffer_info->length;
    page = virt_to_page(skb->data +
     (hdr_len + i * ATL1_MAX_TX_BUF_LEN));
    offset = offset_in_page(skb->data +
     (hdr_len + i * ATL1_MAX_TX_BUF_LEN));
    buffer_info->dma = dma_map_page(&adapter->pdev->dev,
        page, offset,
        buffer_info->length,
        DMA_TO_DEVICE);
    if (dma_mapping_error(&adapter->pdev->dev,
            buffer_info->dma))
     goto dma_err;
    if (++next_to_use == tpd_ring->count)
     next_to_use = 0;
   }
  }
 } else {
  /* not TSO */
  buffer_info->length = buf_len;
  page = virt_to_page(skb->data);
  offset = offset_in_page(skb->data);
  buffer_info->dma = dma_map_page(&adapter->pdev->dev, page,
      offset, buf_len,
      DMA_TO_DEVICE);
  if (dma_mapping_error(&adapter->pdev->dev, buffer_info->dma))
   goto dma_err;
  if (++next_to_use == tpd_ring->count)
   next_to_use = 0;
 }

 for (f = 0; f < nr_frags; f++) {
  const skb_frag_t *frag = &skb_shinfo(skb)->frags[f];
  u16 i, nseg;

  buf_len = skb_frag_size(frag);

  nseg = (buf_len + ATL1_MAX_TX_BUF_LEN - 1) /
   ATL1_MAX_TX_BUF_LEN;
  for (i = 0; i < nseg; i++) {
   buffer_info = &tpd_ring->buffer_info[next_to_use];
   BUG_ON(buffer_info->skb);

   buffer_info->skb = NULL;
   buffer_info->length = (buf_len > ATL1_MAX_TX_BUF_LEN) ?
    ATL1_MAX_TX_BUF_LEN : buf_len;
   buf_len -= buffer_info->length;
   buffer_info->dma = skb_frag_dma_map(&adapter->pdev->dev,
    frag, i * ATL1_MAX_TX_BUF_LEN,
    buffer_info->length, DMA_TO_DEVICE);
   if (dma_mapping_error(&adapter->pdev->dev,
           buffer_info->dma))
    goto dma_err;

   if (++next_to_use == tpd_ring->count)
    next_to_use = 0;
  }
 }

 /* last tpd's buffer-info */
 buffer_info->skb = skb;

 return true;

 dma_err:
 while (first_mapped != next_to_use) {
  buffer_info = &tpd_ring->buffer_info[first_mapped];
  dma_unmap_page(&adapter->pdev->dev,
          buffer_info->dma,
          buffer_info->length,
          DMA_TO_DEVICE);
  buffer_info->dma = 0;

  if (++first_mapped == tpd_ring->count)
   first_mapped = 0;
 }
 return false;
}

static void atl1_tx_queue(struct atl1_adapter *adapter, u16 count,
       struct tx_packet_desc *ptpd)
{
 struct atl1_tpd_ring *tpd_ring = &adapter->tpd_ring;
 struct atl1_buffer *buffer_info;
 struct tx_packet_desc *tpd;
 u16 j;
 u32 val;
 u16 next_to_use = (u16) atomic_read(&tpd_ring->next_to_use);

 for (j = 0; j < count; j++) {
  buffer_info = &tpd_ring->buffer_info[next_to_use];
  tpd = ATL1_TPD_DESC(&adapter->tpd_ring, next_to_use);
  if (tpd != ptpd)
   memcpy(tpd, ptpd, sizeof(struct tx_packet_desc));
  tpd->buffer_addr = cpu_to_le64(buffer_info->dma);
  tpd->word2 &= ~(TPD_BUFLEN_MASK << TPD_BUFLEN_SHIFT);
  tpd->word2 |= (cpu_to_le16(buffer_info->length) &
   TPD_BUFLEN_MASK) << TPD_BUFLEN_SHIFT;

  /*
 * if this is the first packet in a TSO chain, set
 * TPD_HDRFLAG, otherwise, clear it.
 */

  val = (tpd->word3 >> TPD_SEGMENT_EN_SHIFT) &
   TPD_SEGMENT_EN_MASK;
  if (val) {
   if (!j)
    tpd->word3 |= 1 << TPD_HDRFLAG_SHIFT;
   else
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=94 H=91 G=92

¤ Dauer der Verarbeitung: 0.27 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.