Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/drivers/net/ethernet/intel/ixgbe/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 110 kB image not shown  

Quelle  ixgbe_ethtool.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0
/* Copyright(c) 1999 - 2024 Intel Corporation. */

/* ethtool support for ixgbe */

#include <linux/interrupt.h>
#include <linux/types.h>
#include <linux/module.h>
#include <linux/slab.h>
#include <linux/pci.h>
#include <linux/netdevice.h>
#include <linux/ethtool.h>
#include <linux/vmalloc.h>
#include <linux/highmem.h>
#include <linux/uaccess.h>

#include "ixgbe.h"
#include "ixgbe_phy.h"


enum {NETDEV_STATS, IXGBE_STATS};

struct ixgbe_stats {
 char stat_string[ETH_GSTRING_LEN];
 int type;
 int sizeof_stat;
 int stat_offset;
};

#define IXGBE_STAT(m)  IXGBE_STATS, \
    sizeof(((struct ixgbe_adapter *)0)->m), \
    offsetof(struct ixgbe_adapter, m)
#define IXGBE_NETDEV_STAT(m) NETDEV_STATS, \
    sizeof(((struct rtnl_link_stats64 *)0)->m), \
    offsetof(struct rtnl_link_stats64, m)

static const struct ixgbe_stats ixgbe_gstrings_stats[] = {
 {"rx_packets", IXGBE_NETDEV_STAT(rx_packets)},
 {"tx_packets", IXGBE_NETDEV_STAT(tx_packets)},
 {"rx_bytes", IXGBE_NETDEV_STAT(rx_bytes)},
 {"tx_bytes", IXGBE_NETDEV_STAT(tx_bytes)},
 {"rx_pkts_nic", IXGBE_STAT(stats.gprc)},
 {"tx_pkts_nic", IXGBE_STAT(stats.gptc)},
 {"rx_bytes_nic", IXGBE_STAT(stats.gorc)},
 {"tx_bytes_nic", IXGBE_STAT(stats.gotc)},
 {"lsc_int", IXGBE_STAT(lsc_int)},
 {"tx_busy", IXGBE_STAT(tx_busy)},
 {"non_eop_descs", IXGBE_STAT(non_eop_descs)},
 {"rx_errors", IXGBE_NETDEV_STAT(rx_errors)},
 {"tx_errors", IXGBE_NETDEV_STAT(tx_errors)},
 {"rx_dropped", IXGBE_NETDEV_STAT(rx_dropped)},
 {"tx_dropped", IXGBE_NETDEV_STAT(tx_dropped)},
 {"multicast", IXGBE_NETDEV_STAT(multicast)},
 {"broadcast", IXGBE_STAT(stats.bprc)},
 {"rx_no_buffer_count", IXGBE_STAT(stats.rnbc[0]) },
 {"collisions", IXGBE_NETDEV_STAT(collisions)},
 {"rx_over_errors", IXGBE_NETDEV_STAT(rx_over_errors)},
 {"rx_crc_errors", IXGBE_NETDEV_STAT(rx_crc_errors)},
 {"rx_frame_errors", IXGBE_NETDEV_STAT(rx_frame_errors)},
 {"hw_rsc_aggregated", IXGBE_STAT(rsc_total_count)},
 {"hw_rsc_flushed", IXGBE_STAT(rsc_total_flush)},
 {"fdir_match", IXGBE_STAT(stats.fdirmatch)},
 {"fdir_miss", IXGBE_STAT(stats.fdirmiss)},
 {"fdir_overflow", IXGBE_STAT(fdir_overflow)},
 {"rx_fifo_errors", IXGBE_NETDEV_STAT(rx_fifo_errors)},
 {"rx_missed_errors", IXGBE_NETDEV_STAT(rx_missed_errors)},
 {"tx_aborted_errors", IXGBE_NETDEV_STAT(tx_aborted_errors)},
 {"tx_carrier_errors", IXGBE_NETDEV_STAT(tx_carrier_errors)},
 {"tx_fifo_errors", IXGBE_NETDEV_STAT(tx_fifo_errors)},
 {"tx_heartbeat_errors", IXGBE_NETDEV_STAT(tx_heartbeat_errors)},
 {"tx_timeout_count", IXGBE_STAT(tx_timeout_count)},
 {"tx_restart_queue", IXGBE_STAT(restart_queue)},
 {"rx_length_errors", IXGBE_STAT(stats.rlec)},
 {"rx_long_length_errors", IXGBE_STAT(stats.roc)},
 {"rx_short_length_errors", IXGBE_STAT(stats.ruc)},
 {"tx_flow_control_xon", IXGBE_STAT(stats.lxontxc)},
 {"rx_flow_control_xon", IXGBE_STAT(stats.lxonrxc)},
 {"tx_flow_control_xoff", IXGBE_STAT(stats.lxofftxc)},
 {"rx_flow_control_xoff", IXGBE_STAT(stats.lxoffrxc)},
 {"rx_csum_offload_errors", IXGBE_STAT(hw_csum_rx_error)},
 {"alloc_rx_page", IXGBE_STAT(alloc_rx_page)},
 {"alloc_rx_page_failed", IXGBE_STAT(alloc_rx_page_failed)},
 {"alloc_rx_buff_failed", IXGBE_STAT(alloc_rx_buff_failed)},
 {"rx_no_dma_resources", IXGBE_STAT(hw_rx_no_dma_resources)},
 {"os2bmc_rx_by_bmc", IXGBE_STAT(stats.o2bgptc)},
 {"os2bmc_tx_by_bmc", IXGBE_STAT(stats.b2ospc)},
 {"os2bmc_tx_by_host", IXGBE_STAT(stats.o2bspc)},
 {"os2bmc_rx_by_host", IXGBE_STAT(stats.b2ogprc)},
 {"tx_hwtstamp_timeouts", IXGBE_STAT(tx_hwtstamp_timeouts)},
 {"tx_hwtstamp_skipped", IXGBE_STAT(tx_hwtstamp_skipped)},
 {"rx_hwtstamp_cleared", IXGBE_STAT(rx_hwtstamp_cleared)},
 {"tx_ipsec", IXGBE_STAT(tx_ipsec)},
 {"rx_ipsec", IXGBE_STAT(rx_ipsec)},
#ifdef IXGBE_FCOE
 {"fcoe_bad_fccrc", IXGBE_STAT(stats.fccrc)},
 {"rx_fcoe_dropped", IXGBE_STAT(stats.fcoerpdc)},
 {"rx_fcoe_packets", IXGBE_STAT(stats.fcoeprc)},
 {"rx_fcoe_dwords", IXGBE_STAT(stats.fcoedwrc)},
 {"fcoe_noddp", IXGBE_STAT(stats.fcoe_noddp)},
 {"fcoe_noddp_ext_buff", IXGBE_STAT(stats.fcoe_noddp_ext_buff)},
 {"tx_fcoe_packets", IXGBE_STAT(stats.fcoeptc)},
 {"tx_fcoe_dwords", IXGBE_STAT(stats.fcoedwtc)},
#endif /* IXGBE_FCOE */
};

/* ixgbe allocates num_tx_queues and num_rx_queues symmetrically so
 * we set the num_rx_queues to evaluate to num_tx_queues. This is
 * used because we do not have a good way to get the max number of
 * rx queues with CONFIG_RPS disabled.
 */

#define IXGBE_NUM_RX_QUEUES netdev->num_tx_queues

#define IXGBE_QUEUE_STATS_LEN ( \
 (netdev->num_tx_queues + IXGBE_NUM_RX_QUEUES) * \
 (sizeof(struct ixgbe_queue_stats) / sizeof(u64)))
#define IXGBE_GLOBAL_STATS_LEN ARRAY_SIZE(ixgbe_gstrings_stats)
#define IXGBE_PB_STATS_LEN ( \
   (sizeof(((struct ixgbe_adapter *)0)->stats.pxonrxc) + \
    sizeof(((struct ixgbe_adapter *)0)->stats.pxontxc) + \
    sizeof(((struct ixgbe_adapter *)0)->stats.pxoffrxc) + \
    sizeof(((struct ixgbe_adapter *)0)->stats.pxofftxc)) \
   / sizeof(u64))
#define IXGBE_STATS_LEN (IXGBE_GLOBAL_STATS_LEN + \
    IXGBE_PB_STATS_LEN + \
    IXGBE_QUEUE_STATS_LEN)

static const char ixgbe_gstrings_test[][ETH_GSTRING_LEN] = {
 "Register test (offline)""Eeprom test (offline)",
 "Interrupt test (offline)""Loopback test (offline)",
 "Link test (on/offline)"
};
#define IXGBE_TEST_LEN sizeof(ixgbe_gstrings_test) / ETH_GSTRING_LEN

static const char ixgbe_priv_flags_strings[][ETH_GSTRING_LEN] = {
#define IXGBE_PRIV_FLAGS_LEGACY_RX BIT(0)
 "legacy-rx",
#define IXGBE_PRIV_FLAGS_VF_IPSEC_EN BIT(1)
 "vf-ipsec",
#define IXGBE_PRIV_FLAGS_AUTO_DISABLE_VF BIT(2)
 "mdd-disable-vf",
};

#define IXGBE_PRIV_FLAGS_STR_LEN ARRAY_SIZE(ixgbe_priv_flags_strings)

#define ixgbe_isbackplane(type) ((type) == ixgbe_media_type_backplane)

static void ixgbe_set_supported_10gtypes(struct ixgbe_hw *hw,
      struct ethtool_link_ksettings *cmd)
{
 if (!ixgbe_isbackplane(hw->phy.media_type)) {
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           10000baseT_Full);
  return;
 }

 switch (hw->device_id) {
 case IXGBE_DEV_ID_82598:
 case IXGBE_DEV_ID_82599_KX4:
 case IXGBE_DEV_ID_82599_KX4_MEZZ:
 case IXGBE_DEV_ID_X550EM_X_KX4:
  ethtool_link_ksettings_add_link_mode
   (cmd, supported, 10000baseKX4_Full);
  break;
 case IXGBE_DEV_ID_82598_BX:
 case IXGBE_DEV_ID_82599_KR:
 case IXGBE_DEV_ID_X550EM_X_KR:
 case IXGBE_DEV_ID_X550EM_X_XFI:
  ethtool_link_ksettings_add_link_mode
   (cmd, supported, 10000baseKR_Full);
  break;
 default:
  ethtool_link_ksettings_add_link_mode
   (cmd, supported, 10000baseKX4_Full);
  ethtool_link_ksettings_add_link_mode
   (cmd, supported, 10000baseKR_Full);
  break;
 }
}

static void ixgbe_set_advertising_10gtypes(struct ixgbe_hw *hw,
        struct ethtool_link_ksettings *cmd)
{
 if (!ixgbe_isbackplane(hw->phy.media_type)) {
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           10000baseT_Full);
  return;
 }

 switch (hw->device_id) {
 case IXGBE_DEV_ID_82598:
 case IXGBE_DEV_ID_82599_KX4:
 case IXGBE_DEV_ID_82599_KX4_MEZZ:
 case IXGBE_DEV_ID_X550EM_X_KX4:
  ethtool_link_ksettings_add_link_mode
   (cmd, advertising, 10000baseKX4_Full);
  break;
 case IXGBE_DEV_ID_82598_BX:
 case IXGBE_DEV_ID_82599_KR:
 case IXGBE_DEV_ID_X550EM_X_KR:
 case IXGBE_DEV_ID_X550EM_X_XFI:
  ethtool_link_ksettings_add_link_mode
   (cmd, advertising, 10000baseKR_Full);
  break;
 default:
  ethtool_link_ksettings_add_link_mode
   (cmd, advertising, 10000baseKX4_Full);
  ethtool_link_ksettings_add_link_mode
   (cmd, advertising, 10000baseKR_Full);
  break;
 }
}

static int ixgbe_get_link_ksettings(struct net_device *netdev,
        struct ethtool_link_ksettings *cmd)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 ixgbe_link_speed supported_link;
 bool autoneg = false;

 ethtool_link_ksettings_zero_link_mode(cmd, supported);
 ethtool_link_ksettings_zero_link_mode(cmd, advertising);

 hw->mac.ops.get_link_capabilities(hw, &supported_link, &autoneg);

 /* set the supported link speeds */
 if (supported_link & IXGBE_LINK_SPEED_10GB_FULL) {
  ixgbe_set_supported_10gtypes(hw, cmd);
  ixgbe_set_advertising_10gtypes(hw, cmd);
 }
 if (supported_link & IXGBE_LINK_SPEED_5GB_FULL)
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           5000baseT_Full);

 if (supported_link & IXGBE_LINK_SPEED_2_5GB_FULL)
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           2500baseT_Full);

 if (supported_link & IXGBE_LINK_SPEED_1GB_FULL) {
  if (ixgbe_isbackplane(hw->phy.media_type)) {
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            1000baseKX_Full);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            1000baseKX_Full);
  } else {
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            1000baseT_Full);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            1000baseT_Full);
  }
 }
 if (supported_link & IXGBE_LINK_SPEED_100_FULL) {
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           100baseT_Full);
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           100baseT_Full);
 }
 if (supported_link & IXGBE_LINK_SPEED_10_FULL) {
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           10baseT_Full);
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           10baseT_Full);
 }

 /* set the advertised speeds */
 if (hw->phy.autoneg_advertised) {
  ethtool_link_ksettings_zero_link_mode(cmd, advertising);
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_10_FULL)
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            10baseT_Full);
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_100_FULL)
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            100baseT_Full);
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_10GB_FULL)
   ixgbe_set_advertising_10gtypes(hw, cmd);
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_1GB_FULL) {
   if (ethtool_link_ksettings_test_link_mode
    (cmd, supported, 1000baseKX_Full))
    ethtool_link_ksettings_add_link_mode
     (cmd, advertising, 1000baseKX_Full);
   else
    ethtool_link_ksettings_add_link_mode
     (cmd, advertising, 1000baseT_Full);
  }
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_5GB_FULL)
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            5000baseT_Full);
  if (hw->phy.autoneg_advertised & IXGBE_LINK_SPEED_2_5GB_FULL)
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            2500baseT_Full);
 } else {
  if (hw->phy.multispeed_fiber && !autoneg) {
   if (supported_link & IXGBE_LINK_SPEED_10GB_FULL)
    ethtool_link_ksettings_add_link_mode
     (cmd, advertising, 10000baseT_Full);
  }
 }

 if (autoneg) {
  ethtool_link_ksettings_add_link_mode(cmd, supported, Autoneg);
  ethtool_link_ksettings_add_link_mode(cmd, advertising, Autoneg);
  cmd->base.autoneg = AUTONEG_ENABLE;
 } else
  cmd->base.autoneg = AUTONEG_DISABLE;

 /* Determine the remaining settings based on the PHY type. */
 switch (adapter->hw.phy.type) {
 case ixgbe_phy_tn:
 case ixgbe_phy_aq:
 case ixgbe_phy_x550em_ext_t:
 case ixgbe_phy_fw:
 case ixgbe_phy_cu_unknown:
  ethtool_link_ksettings_add_link_mode(cmd, supported, TP);
  ethtool_link_ksettings_add_link_mode(cmd, advertising, TP);
  cmd->base.port = PORT_TP;
  break;
 case ixgbe_phy_qt:
  ethtool_link_ksettings_add_link_mode(cmd, supported, FIBRE);
  ethtool_link_ksettings_add_link_mode(cmd, advertising, FIBRE);
  cmd->base.port = PORT_FIBRE;
  break;
 case ixgbe_phy_nl:
 case ixgbe_phy_sfp_passive_tyco:
 case ixgbe_phy_sfp_passive_unknown:
 case ixgbe_phy_sfp_ftl:
 case ixgbe_phy_sfp_avago:
 case ixgbe_phy_sfp_intel:
 case ixgbe_phy_sfp_unknown:
 case ixgbe_phy_qsfp_passive_unknown:
 case ixgbe_phy_qsfp_active_unknown:
 case ixgbe_phy_qsfp_intel:
 case ixgbe_phy_qsfp_unknown:
  /* SFP+ devices, further checking needed */
  switch (adapter->hw.phy.sfp_type) {
  case ixgbe_sfp_type_da_cu:
  case ixgbe_sfp_type_da_cu_core0:
  case ixgbe_sfp_type_da_cu_core1:
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            FIBRE);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            FIBRE);
   cmd->base.port = PORT_DA;
   break;
  case ixgbe_sfp_type_sr:
  case ixgbe_sfp_type_lr:
  case ixgbe_sfp_type_srlr_core0:
  case ixgbe_sfp_type_srlr_core1:
  case ixgbe_sfp_type_1g_sx_core0:
  case ixgbe_sfp_type_1g_sx_core1:
  case ixgbe_sfp_type_1g_lx_core0:
  case ixgbe_sfp_type_1g_lx_core1:
  case ixgbe_sfp_type_1g_bx_core0:
  case ixgbe_sfp_type_1g_bx_core1:
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            FIBRE);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            FIBRE);
   cmd->base.port = PORT_FIBRE;
   break;
  case ixgbe_sfp_type_not_present:
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            FIBRE);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            FIBRE);
   cmd->base.port = PORT_NONE;
   break;
  case ixgbe_sfp_type_1g_cu_core0:
  case ixgbe_sfp_type_1g_cu_core1:
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            TP);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            TP);
   cmd->base.port = PORT_TP;
   break;
  case ixgbe_sfp_type_unknown:
  default:
   ethtool_link_ksettings_add_link_mode(cmd, supported,
            FIBRE);
   ethtool_link_ksettings_add_link_mode(cmd, advertising,
            FIBRE);
   cmd->base.port = PORT_OTHER;
   break;
  }
  break;
 case ixgbe_phy_xaui:
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           FIBRE);
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           FIBRE);
  cmd->base.port = PORT_NONE;
  break;
 case ixgbe_phy_unknown:
 case ixgbe_phy_generic:
 case ixgbe_phy_sfp_unsupported:
 default:
  ethtool_link_ksettings_add_link_mode(cmd, supported,
           FIBRE);
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           FIBRE);
  cmd->base.port = PORT_OTHER;
  break;
 }

 /* Indicate pause support */
 ethtool_link_ksettings_add_link_mode(cmd, supported, Pause);

 switch (hw->fc.requested_mode) {
 case ixgbe_fc_full:
  ethtool_link_ksettings_add_link_mode(cmd, advertising, Pause);
  break;
 case ixgbe_fc_rx_pause:
  ethtool_link_ksettings_add_link_mode(cmd, advertising, Pause);
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           Asym_Pause);
  break;
 case ixgbe_fc_tx_pause:
  ethtool_link_ksettings_add_link_mode(cmd, advertising,
           Asym_Pause);
  break;
 default:
  ethtool_link_ksettings_del_link_mode(cmd, advertising, Pause);
  ethtool_link_ksettings_del_link_mode(cmd, advertising,
           Asym_Pause);
 }

 if (netif_carrier_ok(netdev)) {
  switch (adapter->link_speed) {
  case IXGBE_LINK_SPEED_10GB_FULL:
   cmd->base.speed = SPEED_10000;
   break;
  case IXGBE_LINK_SPEED_5GB_FULL:
   cmd->base.speed = SPEED_5000;
   break;
  case IXGBE_LINK_SPEED_2_5GB_FULL:
   cmd->base.speed = SPEED_2500;
   break;
  case IXGBE_LINK_SPEED_1GB_FULL:
   cmd->base.speed = SPEED_1000;
   break;
  case IXGBE_LINK_SPEED_100_FULL:
   cmd->base.speed = SPEED_100;
   break;
  case IXGBE_LINK_SPEED_10_FULL:
   cmd->base.speed = SPEED_10;
   break;
  default:
   break;
  }
  cmd->base.duplex = DUPLEX_FULL;
 } else {
  cmd->base.speed = SPEED_UNKNOWN;
  cmd->base.duplex = DUPLEX_UNKNOWN;
 }

 return 0;
}

static int ixgbe_set_link_ksettings(struct net_device *netdev,
        const struct ethtool_link_ksettings *cmd)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 u32 advertised, old;
 int err = 0;

 if ((hw->phy.media_type == ixgbe_media_type_copper) ||
     (hw->phy.multispeed_fiber)) {
  /*
 * this function does not support duplex forcing, but can
 * limit the advertising of the adapter to the specified speed
 */

  if (!linkmode_subset(cmd->link_modes.advertising,
         cmd->link_modes.supported))
   return -EINVAL;

  /* only allow one speed at a time if no autoneg */
  if (!cmd->base.autoneg && hw->phy.multispeed_fiber) {
   if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
          10000baseT_Full) &&
       ethtool_link_ksettings_test_link_mode(cmd, advertising,
          1000baseT_Full))
    return -EINVAL;
  }

  old = hw->phy.autoneg_advertised;
  advertised = 0;
  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         10000baseT_Full))
   advertised |= IXGBE_LINK_SPEED_10GB_FULL;
  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         5000baseT_Full))
   advertised |= IXGBE_LINK_SPEED_5GB_FULL;
  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         2500baseT_Full))
   advertised |= IXGBE_LINK_SPEED_2_5GB_FULL;
  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         1000baseT_Full))
   advertised |= IXGBE_LINK_SPEED_1GB_FULL;

  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         100baseT_Full))
   advertised |= IXGBE_LINK_SPEED_100_FULL;

  if (ethtool_link_ksettings_test_link_mode(cmd, advertising,
         10baseT_Full))
   advertised |= IXGBE_LINK_SPEED_10_FULL;

  if (old == advertised)
   return err;
  /* this sets the link speed and restarts auto-neg */
  while (test_and_set_bit(__IXGBE_IN_SFP_INIT, &adapter->state))
   usleep_range(1000, 2000);

  hw->mac.autotry_restart = true;
  err = hw->mac.ops.setup_link(hw, advertised, true);
  if (err) {
   e_info(probe, "setup link failed with code %d\n", err);
   hw->mac.ops.setup_link(hw, old, true);
  }
  clear_bit(__IXGBE_IN_SFP_INIT, &adapter->state);
 } else {
  /* in this case we currently only support 10Gb/FULL */
  u32 speed = cmd->base.speed;

  if ((cmd->base.autoneg == AUTONEG_ENABLE) ||
      (!ethtool_link_ksettings_test_link_mode(cmd, advertising,
           10000baseT_Full)) ||
      (speed + cmd->base.duplex != SPEED_10000 + DUPLEX_FULL))
   return -EINVAL;
 }

 return err;
}

static void ixgbe_get_pause_stats(struct net_device *netdev,
      struct ethtool_pause_stats *stats)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw_stats *hwstats = &adapter->stats;

 stats->tx_pause_frames = hwstats->lxontxc + hwstats->lxofftxc;
 stats->rx_pause_frames = hwstats->lxonrxc + hwstats->lxoffrxc;
}

static void ixgbe_get_pauseparam(struct net_device *netdev,
     struct ethtool_pauseparam *pause)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;

 if (ixgbe_device_supports_autoneg_fc(hw) &&
     !hw->fc.disable_fc_autoneg)
  pause->autoneg = 1;
 else
  pause->autoneg = 0;

 if (hw->fc.current_mode == ixgbe_fc_rx_pause) {
  pause->rx_pause = 1;
 } else if (hw->fc.current_mode == ixgbe_fc_tx_pause) {
  pause->tx_pause = 1;
 } else if (hw->fc.current_mode == ixgbe_fc_full) {
  pause->rx_pause = 1;
  pause->tx_pause = 1;
 }
}

static void ixgbe_set_pauseparam_finalize(struct net_device *netdev,
       struct ixgbe_fc_info *fc)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;

 /* If the thing changed then we'll update and use new autoneg. */
 if (memcmp(fc, &hw->fc, sizeof(*fc))) {
  hw->fc = *fc;
  if (netif_running(netdev))
   ixgbe_reinit_locked(adapter);
  else
   ixgbe_reset(adapter);
 }
}

static int ixgbe_set_pauseparam(struct net_device *netdev,
    struct ethtool_pauseparam *pause)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 struct ixgbe_fc_info fc = hw->fc;

 /* 82598 does no support link flow control with DCB enabled */
 if ((hw->mac.type == ixgbe_mac_82598EB) &&
     (adapter->flags & IXGBE_FLAG_DCB_ENABLED))
  return -EINVAL;

 /* some devices do not support autoneg of link flow control */
 if ((pause->autoneg == AUTONEG_ENABLE) &&
     !ixgbe_device_supports_autoneg_fc(hw))
  return -EINVAL;

 fc.disable_fc_autoneg = (pause->autoneg != AUTONEG_ENABLE);

 if ((pause->rx_pause && pause->tx_pause) || pause->autoneg)
  fc.requested_mode = ixgbe_fc_full;
 else if (pause->rx_pause && !pause->tx_pause)
  fc.requested_mode = ixgbe_fc_rx_pause;
 else if (!pause->rx_pause && pause->tx_pause)
  fc.requested_mode = ixgbe_fc_tx_pause;
 else
  fc.requested_mode = ixgbe_fc_none;

 ixgbe_set_pauseparam_finalize(netdev, &fc);

 return 0;
}

static int ixgbe_set_pauseparam_e610(struct net_device *netdev,
         struct ethtool_pauseparam *pause)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 struct ixgbe_fc_info fc = hw->fc;

 if (!ixgbe_device_supports_autoneg_fc(hw))
  return -EOPNOTSUPP;

 if (pause->autoneg == AUTONEG_DISABLE) {
  netdev_info(netdev,
       "Cannot disable autonegotiation on this device.\n");
  return -EOPNOTSUPP;
 }

 fc.disable_fc_autoneg = false;

 if (pause->rx_pause && pause->tx_pause)
  fc.requested_mode = ixgbe_fc_full;
 else if (pause->rx_pause)
  fc.requested_mode = ixgbe_fc_rx_pause;
 else if (pause->tx_pause)
  fc.requested_mode = ixgbe_fc_tx_pause;
 else
  fc.requested_mode = ixgbe_fc_none;

 ixgbe_set_pauseparam_finalize(netdev, &fc);

 return 0;
}

static u32 ixgbe_get_msglevel(struct net_device *netdev)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 return adapter->msg_enable;
}

static void ixgbe_set_msglevel(struct net_device *netdev, u32 data)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 adapter->msg_enable = data;
}

static int ixgbe_get_regs_len(struct net_device *netdev)
{
#define IXGBE_REGS_LEN  1145
 return IXGBE_REGS_LEN * sizeof(u32);
}

#define IXGBE_GET_STAT(_A_, _R_) _A_->stats._R_

static void ixgbe_get_regs(struct net_device *netdev,
      struct ethtool_regs *regs, void *p)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 u32 *regs_buff = p;
 u8 i;

 memset(p, 0, IXGBE_REGS_LEN * sizeof(u32));

 regs->version = hw->mac.type << 24 | hw->revision_id << 16 |
   hw->device_id;

 /* General Registers */
 regs_buff[0] = IXGBE_READ_REG(hw, IXGBE_CTRL);
 regs_buff[1] = IXGBE_READ_REG(hw, IXGBE_STATUS);
 regs_buff[2] = IXGBE_READ_REG(hw, IXGBE_CTRL_EXT);
 regs_buff[3] = IXGBE_READ_REG(hw, IXGBE_ESDP);
 regs_buff[4] = IXGBE_READ_REG(hw, IXGBE_EODSDP);
 regs_buff[5] = IXGBE_READ_REG(hw, IXGBE_LEDCTL);
 regs_buff[6] = IXGBE_READ_REG(hw, IXGBE_FRTIMER);
 regs_buff[7] = IXGBE_READ_REG(hw, IXGBE_TCPTIMER);

 /* NVM Register */
 regs_buff[8] = IXGBE_READ_REG(hw, IXGBE_EEC(hw));
 regs_buff[9] = IXGBE_READ_REG(hw, IXGBE_EERD);
 regs_buff[10] = IXGBE_READ_REG(hw, IXGBE_FLA(hw));
 regs_buff[11] = IXGBE_READ_REG(hw, IXGBE_EEMNGCTL);
 regs_buff[12] = IXGBE_READ_REG(hw, IXGBE_EEMNGDATA);
 regs_buff[13] = IXGBE_READ_REG(hw, IXGBE_FLMNGCTL);
 regs_buff[14] = IXGBE_READ_REG(hw, IXGBE_FLMNGDATA);
 regs_buff[15] = IXGBE_READ_REG(hw, IXGBE_FLMNGCNT);
 regs_buff[16] = IXGBE_READ_REG(hw, IXGBE_FLOP);
 regs_buff[17] = IXGBE_READ_REG(hw, IXGBE_GRC(hw));

 /* Interrupt */
 /* don't read EICR because it can clear interrupt causes, instead
 * read EICS which is a shadow but doesn't clear EICR */

 regs_buff[18] = IXGBE_READ_REG(hw, IXGBE_EICS);
 regs_buff[19] = IXGBE_READ_REG(hw, IXGBE_EICS);
 regs_buff[20] = IXGBE_READ_REG(hw, IXGBE_EIMS);
 regs_buff[21] = IXGBE_READ_REG(hw, IXGBE_EIMC);
 regs_buff[22] = IXGBE_READ_REG(hw, IXGBE_EIAC);
 regs_buff[23] = IXGBE_READ_REG(hw, IXGBE_EIAM);
 regs_buff[24] = IXGBE_READ_REG(hw, IXGBE_EITR(0));
 regs_buff[25] = IXGBE_READ_REG(hw, IXGBE_IVAR(0));
 regs_buff[26] = IXGBE_READ_REG(hw, IXGBE_MSIXT);
 regs_buff[27] = IXGBE_READ_REG(hw, IXGBE_MSIXPBA);
 regs_buff[28] = IXGBE_READ_REG(hw, IXGBE_PBACL(0));
 regs_buff[29] = IXGBE_READ_REG(hw, IXGBE_GPIE);

 /* Flow Control */
 regs_buff[30] = IXGBE_READ_REG(hw, IXGBE_PFCTOP);
 for (i = 0; i < 4; i++)
  regs_buff[31 + i] = IXGBE_READ_REG(hw, IXGBE_FCTTV(i));
 for (i = 0; i < 8; i++) {
  switch (hw->mac.type) {
  case ixgbe_mac_82598EB:
   regs_buff[35 + i] = IXGBE_READ_REG(hw, IXGBE_FCRTL(i));
   regs_buff[43 + i] = IXGBE_READ_REG(hw, IXGBE_FCRTH(i));
   break;
  case ixgbe_mac_82599EB:
  case ixgbe_mac_X540:
  case ixgbe_mac_X550:
  case ixgbe_mac_X550EM_x:
  case ixgbe_mac_x550em_a:
  case ixgbe_mac_e610:
   regs_buff[35 + i] = IXGBE_READ_REG(hw, IXGBE_FCRTL_82599(i));
   regs_buff[43 + i] = IXGBE_READ_REG(hw, IXGBE_FCRTH_82599(i));
   break;
  default:
   break;
  }
 }
 regs_buff[51] = IXGBE_READ_REG(hw, IXGBE_FCRTV);
 regs_buff[52] = IXGBE_READ_REG(hw, IXGBE_TFCS);

 /* Receive DMA */
 for (i = 0; i < 64; i++)
  regs_buff[53 + i] = IXGBE_READ_REG(hw, IXGBE_RDBAL(i));
 for (i = 0; i < 64; i++)
  regs_buff[117 + i] = IXGBE_READ_REG(hw, IXGBE_RDBAH(i));
 for (i = 0; i < 64; i++)
  regs_buff[181 + i] = IXGBE_READ_REG(hw, IXGBE_RDLEN(i));
 for (i = 0; i < 64; i++)
  regs_buff[245 + i] = IXGBE_READ_REG(hw, IXGBE_RDH(i));
 for (i = 0; i < 64; i++)
  regs_buff[309 + i] = IXGBE_READ_REG(hw, IXGBE_RDT(i));
 for (i = 0; i < 64; i++)
  regs_buff[373 + i] = IXGBE_READ_REG(hw, IXGBE_RXDCTL(i));
 for (i = 0; i < 16; i++)
  regs_buff[437 + i] = IXGBE_READ_REG(hw, IXGBE_SRRCTL(i));
 for (i = 0; i < 16; i++)
  regs_buff[453 + i] = IXGBE_READ_REG(hw, IXGBE_DCA_RXCTRL(i));
 regs_buff[469] = IXGBE_READ_REG(hw, IXGBE_RDRXCTL);
 for (i = 0; i < 8; i++)
  regs_buff[470 + i] = IXGBE_READ_REG(hw, IXGBE_RXPBSIZE(i));
 regs_buff[478] = IXGBE_READ_REG(hw, IXGBE_RXCTRL);
 regs_buff[479] = IXGBE_READ_REG(hw, IXGBE_DROPEN);

 /* Receive */
 regs_buff[480] = IXGBE_READ_REG(hw, IXGBE_RXCSUM);
 regs_buff[481] = IXGBE_READ_REG(hw, IXGBE_RFCTL);
 for (i = 0; i < 16; i++)
  regs_buff[482 + i] = IXGBE_READ_REG(hw, IXGBE_RAL(i));
 for (i = 0; i < 16; i++)
  regs_buff[498 + i] = IXGBE_READ_REG(hw, IXGBE_RAH(i));
 regs_buff[514] = IXGBE_READ_REG(hw, IXGBE_PSRTYPE(0));
 regs_buff[515] = IXGBE_READ_REG(hw, IXGBE_FCTRL);
 regs_buff[516] = IXGBE_READ_REG(hw, IXGBE_VLNCTRL);
 regs_buff[517] = IXGBE_READ_REG(hw, IXGBE_MCSTCTRL);
 regs_buff[518] = IXGBE_READ_REG(hw, IXGBE_MRQC);
 regs_buff[519] = IXGBE_READ_REG(hw, IXGBE_VMD_CTL);
 for (i = 0; i < 8; i++)
  regs_buff[520 + i] = IXGBE_READ_REG(hw, IXGBE_IMIR(i));
 for (i = 0; i < 8; i++)
  regs_buff[528 + i] = IXGBE_READ_REG(hw, IXGBE_IMIREXT(i));
 regs_buff[536] = IXGBE_READ_REG(hw, IXGBE_IMIRVP);

 /* Transmit */
 for (i = 0; i < 32; i++)
  regs_buff[537 + i] = IXGBE_READ_REG(hw, IXGBE_TDBAL(i));
 for (i = 0; i < 32; i++)
  regs_buff[569 + i] = IXGBE_READ_REG(hw, IXGBE_TDBAH(i));
 for (i = 0; i < 32; i++)
  regs_buff[601 + i] = IXGBE_READ_REG(hw, IXGBE_TDLEN(i));
 for (i = 0; i < 32; i++)
  regs_buff[633 + i] = IXGBE_READ_REG(hw, IXGBE_TDH(i));
 for (i = 0; i < 32; i++)
  regs_buff[665 + i] = IXGBE_READ_REG(hw, IXGBE_TDT(i));
 for (i = 0; i < 32; i++)
  regs_buff[697 + i] = IXGBE_READ_REG(hw, IXGBE_TXDCTL(i));
 for (i = 0; i < 32; i++)
  regs_buff[729 + i] = IXGBE_READ_REG(hw, IXGBE_TDWBAL(i));
 for (i = 0; i < 32; i++)
  regs_buff[761 + i] = IXGBE_READ_REG(hw, IXGBE_TDWBAH(i));
 regs_buff[793] = IXGBE_READ_REG(hw, IXGBE_DTXCTL);
 for (i = 0; i < 16; i++)
  regs_buff[794 + i] = IXGBE_READ_REG(hw, IXGBE_DCA_TXCTRL(i));
 regs_buff[810] = IXGBE_READ_REG(hw, IXGBE_TIPG);
 for (i = 0; i < 8; i++)
  regs_buff[811 + i] = IXGBE_READ_REG(hw, IXGBE_TXPBSIZE(i));
 regs_buff[819] = IXGBE_READ_REG(hw, IXGBE_MNGTXMAP);

 /* Wake Up */
 regs_buff[820] = IXGBE_READ_REG(hw, IXGBE_WUC);
 regs_buff[821] = IXGBE_READ_REG(hw, IXGBE_WUFC);
 regs_buff[822] = IXGBE_READ_REG(hw, IXGBE_WUS);
 regs_buff[823] = IXGBE_READ_REG(hw, IXGBE_IPAV);
 regs_buff[824] = IXGBE_READ_REG(hw, IXGBE_IP4AT);
 regs_buff[825] = IXGBE_READ_REG(hw, IXGBE_IP6AT);
 regs_buff[826] = IXGBE_READ_REG(hw, IXGBE_WUPL);
 regs_buff[827] = IXGBE_READ_REG(hw, IXGBE_WUPM);
 regs_buff[828] = IXGBE_READ_REG(hw, IXGBE_FHFT(0));

 /* DCB */
 regs_buff[829] = IXGBE_READ_REG(hw, IXGBE_RMCS);   /* same as FCCFG  */
 regs_buff[831] = IXGBE_READ_REG(hw, IXGBE_PDPMCS); /* same as RTTPCS */

 switch (hw->mac.type) {
 case ixgbe_mac_82598EB:
  regs_buff[830] = IXGBE_READ_REG(hw, IXGBE_DPMCS);
  regs_buff[832] = IXGBE_READ_REG(hw, IXGBE_RUPPBMR);
  for (i = 0; i < 8; i++)
   regs_buff[833 + i] =
    IXGBE_READ_REG(hw, IXGBE_RT2CR(i));
  for (i = 0; i < 8; i++)
   regs_buff[841 + i] =
    IXGBE_READ_REG(hw, IXGBE_RT2SR(i));
  for (i = 0; i < 8; i++)
   regs_buff[849 + i] =
    IXGBE_READ_REG(hw, IXGBE_TDTQ2TCCR(i));
  for (i = 0; i < 8; i++)
   regs_buff[857 + i] =
    IXGBE_READ_REG(hw, IXGBE_TDTQ2TCSR(i));
  break;
 case ixgbe_mac_82599EB:
 case ixgbe_mac_X540:
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
  regs_buff[830] = IXGBE_READ_REG(hw, IXGBE_RTTDCS);
  regs_buff[832] = IXGBE_READ_REG(hw, IXGBE_RTRPCS);
  for (i = 0; i < 8; i++)
   regs_buff[833 + i] =
    IXGBE_READ_REG(hw, IXGBE_RTRPT4C(i));
  for (i = 0; i < 8; i++)
   regs_buff[841 + i] =
    IXGBE_READ_REG(hw, IXGBE_RTRPT4S(i));
  for (i = 0; i < 8; i++)
   regs_buff[849 + i] =
    IXGBE_READ_REG(hw, IXGBE_RTTDT2C(i));
  for (i = 0; i < 8; i++)
   regs_buff[857 + i] =
    IXGBE_READ_REG(hw, IXGBE_RTTDT2S(i));
  break;
 default:
  break;
 }

 for (i = 0; i < 8; i++)
  regs_buff[865 + i] =
  IXGBE_READ_REG(hw, IXGBE_TDPT2TCCR(i)); /* same as RTTPT2C */
 for (i = 0; i < 8; i++)
  regs_buff[873 + i] =
  IXGBE_READ_REG(hw, IXGBE_TDPT2TCSR(i)); /* same as RTTPT2S */

 /* Statistics */
 regs_buff[881] = IXGBE_GET_STAT(adapter, crcerrs);
 regs_buff[882] = IXGBE_GET_STAT(adapter, illerrc);
 regs_buff[883] = IXGBE_GET_STAT(adapter, errbc);
 regs_buff[884] = IXGBE_GET_STAT(adapter, mspdc);
 for (i = 0; i < 8; i++)
  regs_buff[885 + i] = IXGBE_GET_STAT(adapter, mpc[i]);
 regs_buff[893] = IXGBE_GET_STAT(adapter, mlfc);
 regs_buff[894] = IXGBE_GET_STAT(adapter, mrfc);
 regs_buff[895] = IXGBE_GET_STAT(adapter, rlec);
 regs_buff[896] = IXGBE_GET_STAT(adapter, lxontxc);
 regs_buff[897] = IXGBE_GET_STAT(adapter, lxonrxc);
 regs_buff[898] = IXGBE_GET_STAT(adapter, lxofftxc);
 regs_buff[899] = IXGBE_GET_STAT(adapter, lxoffrxc);
 for (i = 0; i < 8; i++)
  regs_buff[900 + i] = IXGBE_GET_STAT(adapter, pxontxc[i]);
 for (i = 0; i < 8; i++)
  regs_buff[908 + i] = IXGBE_GET_STAT(adapter, pxonrxc[i]);
 for (i = 0; i < 8; i++)
  regs_buff[916 + i] = IXGBE_GET_STAT(adapter, pxofftxc[i]);
 for (i = 0; i < 8; i++)
  regs_buff[924 + i] = IXGBE_GET_STAT(adapter, pxoffrxc[i]);
 regs_buff[932] = IXGBE_GET_STAT(adapter, prc64);
 regs_buff[933] = IXGBE_GET_STAT(adapter, prc127);
 regs_buff[934] = IXGBE_GET_STAT(adapter, prc255);
 regs_buff[935] = IXGBE_GET_STAT(adapter, prc511);
 regs_buff[936] = IXGBE_GET_STAT(adapter, prc1023);
 regs_buff[937] = IXGBE_GET_STAT(adapter, prc1522);
 regs_buff[938] = IXGBE_GET_STAT(adapter, gprc);
 regs_buff[939] = IXGBE_GET_STAT(adapter, bprc);
 regs_buff[940] = IXGBE_GET_STAT(adapter, mprc);
 regs_buff[941] = IXGBE_GET_STAT(adapter, gptc);
 regs_buff[942] = (u32)IXGBE_GET_STAT(adapter, gorc);
 regs_buff[943] = (u32)(IXGBE_GET_STAT(adapter, gorc) >> 32);
 regs_buff[944] = (u32)IXGBE_GET_STAT(adapter, gotc);
 regs_buff[945] = (u32)(IXGBE_GET_STAT(adapter, gotc) >> 32);
 for (i = 0; i < 8; i++)
  regs_buff[946 + i] = IXGBE_GET_STAT(adapter, rnbc[i]);
 regs_buff[954] = IXGBE_GET_STAT(adapter, ruc);
 regs_buff[955] = IXGBE_GET_STAT(adapter, rfc);
 regs_buff[956] = IXGBE_GET_STAT(adapter, roc);
 regs_buff[957] = IXGBE_GET_STAT(adapter, rjc);
 regs_buff[958] = IXGBE_GET_STAT(adapter, mngprc);
 regs_buff[959] = IXGBE_GET_STAT(adapter, mngpdc);
 regs_buff[960] = IXGBE_GET_STAT(adapter, mngptc);
 regs_buff[961] = (u32)IXGBE_GET_STAT(adapter, tor);
 regs_buff[962] = (u32)(IXGBE_GET_STAT(adapter, tor) >> 32);
 regs_buff[963] = IXGBE_GET_STAT(adapter, tpr);
 regs_buff[964] = IXGBE_GET_STAT(adapter, tpt);
 regs_buff[965] = IXGBE_GET_STAT(adapter, ptc64);
 regs_buff[966] = IXGBE_GET_STAT(adapter, ptc127);
 regs_buff[967] = IXGBE_GET_STAT(adapter, ptc255);
 regs_buff[968] = IXGBE_GET_STAT(adapter, ptc511);
 regs_buff[969] = IXGBE_GET_STAT(adapter, ptc1023);
 regs_buff[970] = IXGBE_GET_STAT(adapter, ptc1522);
 regs_buff[971] = IXGBE_GET_STAT(adapter, mptc);
 regs_buff[972] = IXGBE_GET_STAT(adapter, bptc);
 regs_buff[973] = IXGBE_GET_STAT(adapter, xec);
 for (i = 0; i < 16; i++)
  regs_buff[974 + i] = IXGBE_GET_STAT(adapter, qprc[i]);
 for (i = 0; i < 16; i++)
  regs_buff[990 + i] = IXGBE_GET_STAT(adapter, qptc[i]);
 for (i = 0; i < 16; i++)
  regs_buff[1006 + i] = IXGBE_GET_STAT(adapter, qbrc[i]);
 for (i = 0; i < 16; i++)
  regs_buff[1022 + i] = IXGBE_GET_STAT(adapter, qbtc[i]);

 /* MAC */
 regs_buff[1038] = IXGBE_READ_REG(hw, IXGBE_PCS1GCFIG);
 regs_buff[1039] = IXGBE_READ_REG(hw, IXGBE_PCS1GLCTL);
 regs_buff[1040] = IXGBE_READ_REG(hw, IXGBE_PCS1GLSTA);
 regs_buff[1041] = IXGBE_READ_REG(hw, IXGBE_PCS1GDBG0);
 regs_buff[1042] = IXGBE_READ_REG(hw, IXGBE_PCS1GDBG1);
 regs_buff[1043] = IXGBE_READ_REG(hw, IXGBE_PCS1GANA);
 regs_buff[1044] = IXGBE_READ_REG(hw, IXGBE_PCS1GANLP);
 regs_buff[1045] = IXGBE_READ_REG(hw, IXGBE_PCS1GANNP);
 regs_buff[1046] = IXGBE_READ_REG(hw, IXGBE_PCS1GANLPNP);
 regs_buff[1047] = IXGBE_READ_REG(hw, IXGBE_HLREG0);
 regs_buff[1048] = IXGBE_READ_REG(hw, IXGBE_HLREG1);
 regs_buff[1049] = IXGBE_READ_REG(hw, IXGBE_PAP);
 regs_buff[1050] = IXGBE_READ_REG(hw, IXGBE_MACA);
 regs_buff[1051] = IXGBE_READ_REG(hw, IXGBE_APAE);
 regs_buff[1052] = IXGBE_READ_REG(hw, IXGBE_ARD);
 regs_buff[1053] = IXGBE_READ_REG(hw, IXGBE_AIS);
 regs_buff[1054] = IXGBE_READ_REG(hw, IXGBE_MSCA);
 regs_buff[1055] = IXGBE_READ_REG(hw, IXGBE_MSRWD);
 regs_buff[1056] = IXGBE_READ_REG(hw, IXGBE_MLADD);
 regs_buff[1057] = IXGBE_READ_REG(hw, IXGBE_MHADD);
 regs_buff[1058] = IXGBE_READ_REG(hw, IXGBE_TREG);
 regs_buff[1059] = IXGBE_READ_REG(hw, IXGBE_PCSS1);
 regs_buff[1060] = IXGBE_READ_REG(hw, IXGBE_PCSS2);
 regs_buff[1061] = IXGBE_READ_REG(hw, IXGBE_XPCSS);
 regs_buff[1062] = IXGBE_READ_REG(hw, IXGBE_SERDESC);
 regs_buff[1063] = IXGBE_READ_REG(hw, IXGBE_MACS);
 regs_buff[1064] = IXGBE_READ_REG(hw, IXGBE_AUTOC);
 regs_buff[1065] = IXGBE_READ_REG(hw, IXGBE_LINKS);
 regs_buff[1066] = IXGBE_READ_REG(hw, IXGBE_AUTOC2);
 regs_buff[1067] = IXGBE_READ_REG(hw, IXGBE_AUTOC3);
 regs_buff[1068] = IXGBE_READ_REG(hw, IXGBE_ANLP1);
 regs_buff[1069] = IXGBE_READ_REG(hw, IXGBE_ANLP2);
 regs_buff[1070] = IXGBE_READ_REG(hw, IXGBE_ATLASCTL);

 /* Diagnostic */
 regs_buff[1071] = IXGBE_READ_REG(hw, IXGBE_RDSTATCTL);
 for (i = 0; i < 8; i++)
  regs_buff[1072 + i] = IXGBE_READ_REG(hw, IXGBE_RDSTAT(i));
 regs_buff[1080] = IXGBE_READ_REG(hw, IXGBE_RDHMPN);
 for (i = 0; i < 4; i++)
  regs_buff[1081 + i] = IXGBE_READ_REG(hw, IXGBE_RIC_DW(i));
 regs_buff[1085] = IXGBE_READ_REG(hw, IXGBE_RDPROBE);
 regs_buff[1086] = IXGBE_READ_REG(hw, IXGBE_TDSTATCTL);
 for (i = 0; i < 8; i++)
  regs_buff[1087 + i] = IXGBE_READ_REG(hw, IXGBE_TDSTAT(i));
 regs_buff[1095] = IXGBE_READ_REG(hw, IXGBE_TDHMPN);
 for (i = 0; i < 4; i++)
  regs_buff[1096 + i] = IXGBE_READ_REG(hw, IXGBE_TIC_DW(i));
 regs_buff[1100] = IXGBE_READ_REG(hw, IXGBE_TDPROBE);
 regs_buff[1101] = IXGBE_READ_REG(hw, IXGBE_TXBUFCTRL);
 for (i = 0; i < 4; i++)
  regs_buff[1102 + i] = IXGBE_READ_REG(hw, IXGBE_TXBUFDATA(i));
 regs_buff[1106] = IXGBE_READ_REG(hw, IXGBE_RXBUFCTRL);
 for (i = 0; i < 4; i++)
  regs_buff[1107 + i] = IXGBE_READ_REG(hw, IXGBE_RXBUFDATA(i));
 for (i = 0; i < 8; i++)
  regs_buff[1111 + i] = IXGBE_READ_REG(hw, IXGBE_PCIE_DIAG(i));
 regs_buff[1119] = IXGBE_READ_REG(hw, IXGBE_RFVAL);
 regs_buff[1120] = IXGBE_READ_REG(hw, IXGBE_MDFTC1);
 regs_buff[1121] = IXGBE_READ_REG(hw, IXGBE_MDFTC2);
 regs_buff[1122] = IXGBE_READ_REG(hw, IXGBE_MDFTFIFO1);
 regs_buff[1123] = IXGBE_READ_REG(hw, IXGBE_MDFTFIFO2);
 regs_buff[1124] = IXGBE_READ_REG(hw, IXGBE_MDFTS);
 regs_buff[1125] = IXGBE_READ_REG(hw, IXGBE_PCIEECCCTL);
 regs_buff[1126] = IXGBE_READ_REG(hw, IXGBE_PBTXECC);
 regs_buff[1127] = IXGBE_READ_REG(hw, IXGBE_PBRXECC);

 /* 82599 X540 specific registers  */
 regs_buff[1128] = IXGBE_READ_REG(hw, IXGBE_MFLCN);

 /* 82599 X540 specific DCB registers  */
 regs_buff[1129] = IXGBE_READ_REG(hw, IXGBE_RTRUP2TC);
 regs_buff[1130] = IXGBE_READ_REG(hw, IXGBE_RTTUP2TC);
 for (i = 0; i < 4; i++)
  regs_buff[1131 + i] = IXGBE_READ_REG(hw, IXGBE_TXLLQ(i));
 regs_buff[1135] = IXGBE_READ_REG(hw, IXGBE_RTTBCNRM);
     /* same as RTTQCNRM */
 regs_buff[1136] = IXGBE_READ_REG(hw, IXGBE_RTTBCNRD);
     /* same as RTTQCNRR */

 /* X540 specific DCB registers  */
 regs_buff[1137] = IXGBE_READ_REG(hw, IXGBE_RTTQCNCR);
 regs_buff[1138] = IXGBE_READ_REG(hw, IXGBE_RTTQCNTG);

 /* Security config registers */
 regs_buff[1139] = IXGBE_READ_REG(hw, IXGBE_SECTXCTRL);
 regs_buff[1140] = IXGBE_READ_REG(hw, IXGBE_SECTXSTAT);
 regs_buff[1141] = IXGBE_READ_REG(hw, IXGBE_SECTXBUFFAF);
 regs_buff[1142] = IXGBE_READ_REG(hw, IXGBE_SECTXMINIFG);
 regs_buff[1143] = IXGBE_READ_REG(hw, IXGBE_SECRXCTRL);
 regs_buff[1144] = IXGBE_READ_REG(hw, IXGBE_SECRXSTAT);
}

static void ixgbe_get_link_ext_stats(struct net_device *netdev,
         struct ethtool_link_ext_stats *stats)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);

 stats->link_down_events = adapter->link_down_events;
}

static int ixgbe_get_eeprom_len(struct net_device *netdev)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 return adapter->hw.eeprom.word_size * 2;
}

static int ixgbe_get_eeprom(struct net_device *netdev,
       struct ethtool_eeprom *eeprom, u8 *bytes)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 u16 *eeprom_buff;
 int first_word, last_word, eeprom_len;
 int ret_val = 0;
 u16 i;

 if (eeprom->len == 0)
  return -EINVAL;

 eeprom->magic = hw->vendor_id | (hw->device_id << 16);

 first_word = eeprom->offset >> 1;
 last_word = (eeprom->offset + eeprom->len - 1) >> 1;
 eeprom_len = last_word - first_word + 1;

 eeprom_buff = kmalloc_array(eeprom_len, sizeof(u16), GFP_KERNEL);
 if (!eeprom_buff)
  return -ENOMEM;

 ret_val = hw->eeprom.ops.read_buffer(hw, first_word, eeprom_len,
          eeprom_buff);

 /* Device's eeprom is always little-endian, word addressable */
 for (i = 0; i < eeprom_len; i++)
  le16_to_cpus(&eeprom_buff[i]);

 memcpy(bytes, (u8 *)eeprom_buff + (eeprom->offset & 1), eeprom->len);
 kfree(eeprom_buff);

 return ret_val;
}

static int ixgbe_set_eeprom(struct net_device *netdev,
       struct ethtool_eeprom *eeprom, u8 *bytes)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_hw *hw = &adapter->hw;
 u16 *eeprom_buff;
 void *ptr;
 int max_len, first_word, last_word, ret_val = 0;
 u16 i;

 if (eeprom->len == 0)
  return -EINVAL;

 if (eeprom->magic != (hw->vendor_id | (hw->device_id << 16)))
  return -EINVAL;

 max_len = hw->eeprom.word_size * 2;

 first_word = eeprom->offset >> 1;
 last_word = (eeprom->offset + eeprom->len - 1) >> 1;
 eeprom_buff = kmalloc(max_len, GFP_KERNEL);
 if (!eeprom_buff)
  return -ENOMEM;

 ptr = eeprom_buff;

 if (eeprom->offset & 1) {
  /*
 * need read/modify/write of first changed EEPROM word
 * only the second byte of the word is being modified
 */

  ret_val = hw->eeprom.ops.read(hw, first_word, &eeprom_buff[0]);
  if (ret_val)
   goto err;

  ptr++;
 }
 if ((eeprom->offset + eeprom->len) & 1) {
  /*
 * need read/modify/write of last changed EEPROM word
 * only the first byte of the word is being modified
 */

  ret_val = hw->eeprom.ops.read(hw, last_word,
       &eeprom_buff[last_word - first_word]);
  if (ret_val)
   goto err;
 }

 /* Device's eeprom is always little-endian, word addressable */
 for (i = 0; i < last_word - first_word + 1; i++)
  le16_to_cpus(&eeprom_buff[i]);

 memcpy(ptr, bytes, eeprom->len);

 for (i = 0; i < last_word - first_word + 1; i++)
  cpu_to_le16s(&eeprom_buff[i]);

 ret_val = hw->eeprom.ops.write_buffer(hw, first_word,
           last_word - first_word + 1,
           eeprom_buff);

 /* Update the checksum */
 if (ret_val == 0)
  hw->eeprom.ops.update_checksum(hw);

err:
 kfree(eeprom_buff);
 return ret_val;
}

void ixgbe_refresh_fw_version(struct ixgbe_adapter *adapter)
{
 struct ixgbe_hw *hw = &adapter->hw;

 ixgbe_get_flash_data(hw);
 ixgbe_set_fw_version_e610(adapter);
}

static void ixgbe_get_drvinfo(struct net_device *netdev,
         struct ethtool_drvinfo *drvinfo)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);

 /* need to refresh info for e610 in case fw reloads in runtime */
 if (adapter->hw.mac.type == ixgbe_mac_e610)
  ixgbe_refresh_fw_version(adapter);

 strscpy(drvinfo->driver, ixgbe_driver_name, sizeof(drvinfo->driver));

 strscpy(drvinfo->fw_version, adapter->eeprom_id,
  sizeof(drvinfo->fw_version));

 strscpy(drvinfo->bus_info, pci_name(adapter->pdev),
  sizeof(drvinfo->bus_info));

 drvinfo->n_priv_flags = IXGBE_PRIV_FLAGS_STR_LEN;
}

static u32 ixgbe_get_max_rxd(struct ixgbe_adapter *adapter)
{
 switch (adapter->hw.mac.type) {
 case ixgbe_mac_82598EB:
  return IXGBE_MAX_RXD_82598;
 case ixgbe_mac_82599EB:
  return IXGBE_MAX_RXD_82599;
 case ixgbe_mac_X540:
  return IXGBE_MAX_RXD_X540;
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
  return IXGBE_MAX_RXD_X550;
 default:
  return IXGBE_MAX_RXD_82598;
 }
}

static u32 ixgbe_get_max_txd(struct ixgbe_adapter *adapter)
{
 switch (adapter->hw.mac.type) {
 case ixgbe_mac_82598EB:
  return IXGBE_MAX_TXD_82598;
 case ixgbe_mac_82599EB:
  return IXGBE_MAX_TXD_82599;
 case ixgbe_mac_X540:
  return IXGBE_MAX_TXD_X540;
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
  return IXGBE_MAX_TXD_X550;
 default:
  return IXGBE_MAX_TXD_82598;
 }
}

static void ixgbe_get_ringparam(struct net_device *netdev,
    struct ethtool_ringparam *ring,
    struct kernel_ethtool_ringparam *kernel_ring,
    struct netlink_ext_ack *extack)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_ring *tx_ring = adapter->tx_ring[0];
 struct ixgbe_ring *rx_ring = adapter->rx_ring[0];

 ring->rx_max_pending = ixgbe_get_max_rxd(adapter);
 ring->tx_max_pending = ixgbe_get_max_txd(adapter);
 ring->rx_pending = rx_ring->count;
 ring->tx_pending = tx_ring->count;
}

static int ixgbe_set_ringparam(struct net_device *netdev,
          struct ethtool_ringparam *ring,
          struct kernel_ethtool_ringparam *kernel_ring,
          struct netlink_ext_ack *extack)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct ixgbe_ring *temp_ring;
 int i, j, err = 0;
 u32 new_rx_count, new_tx_count;

 if ((ring->rx_mini_pending) || (ring->rx_jumbo_pending))
  return -EINVAL;

 new_tx_count = clamp_t(u32, ring->tx_pending,
          IXGBE_MIN_TXD, ixgbe_get_max_txd(adapter));
 new_tx_count = ALIGN(new_tx_count, IXGBE_REQ_TX_DESCRIPTOR_MULTIPLE);

 new_rx_count = clamp_t(u32, ring->rx_pending,
          IXGBE_MIN_RXD, ixgbe_get_max_rxd(adapter));
 new_rx_count = ALIGN(new_rx_count, IXGBE_REQ_RX_DESCRIPTOR_MULTIPLE);

 if ((new_tx_count == adapter->tx_ring_count) &&
     (new_rx_count == adapter->rx_ring_count)) {
  /* nothing to do */
  return 0;
 }

 while (test_and_set_bit(__IXGBE_RESETTING, &adapter->state))
  usleep_range(1000, 2000);

 if (!netif_running(adapter->netdev)) {
  for (i = 0; i < adapter->num_tx_queues; i++)
   adapter->tx_ring[i]->count = new_tx_count;
  for (i = 0; i < adapter->num_xdp_queues; i++)
   adapter->xdp_ring[i]->count = new_tx_count;
  for (i = 0; i < adapter->num_rx_queues; i++)
   adapter->rx_ring[i]->count = new_rx_count;
  adapter->tx_ring_count = new_tx_count;
  adapter->xdp_ring_count = new_tx_count;
  adapter->rx_ring_count = new_rx_count;
  goto clear_reset;
 }

 /* allocate temporary buffer to store rings in */
 i = max_t(int, adapter->num_tx_queues + adapter->num_xdp_queues,
    adapter->num_rx_queues);
 temp_ring = vmalloc(array_size(i, sizeof(struct ixgbe_ring)));

 if (!temp_ring) {
  err = -ENOMEM;
  goto clear_reset;
 }

 ixgbe_down(adapter);

 /*
 * Setup new Tx resources and free the old Tx resources in that order.
 * We can then assign the new resources to the rings via a memcpy.
 * The advantage to this approach is that we are guaranteed to still
 * have resources even in the case of an allocation failure.
 */

 if (new_tx_count != adapter->tx_ring_count) {
  for (i = 0; i < adapter->num_tx_queues; i++) {
   memcpy(&temp_ring[i], adapter->tx_ring[i],
          sizeof(struct ixgbe_ring));

   temp_ring[i].count = new_tx_count;
   err = ixgbe_setup_tx_resources(&temp_ring[i]);
   if (err) {
    while (i) {
     i--;
     ixgbe_free_tx_resources(&temp_ring[i]);
    }
    goto err_setup;
   }
  }

  for (j = 0; j < adapter->num_xdp_queues; j++, i++) {
   memcpy(&temp_ring[i], adapter->xdp_ring[j],
          sizeof(struct ixgbe_ring));

   temp_ring[i].count = new_tx_count;
   err = ixgbe_setup_tx_resources(&temp_ring[i]);
   if (err) {
    while (i) {
     i--;
     ixgbe_free_tx_resources(&temp_ring[i]);
    }
    goto err_setup;
   }
  }

  for (i = 0; i < adapter->num_tx_queues; i++) {
   ixgbe_free_tx_resources(adapter->tx_ring[i]);

   memcpy(adapter->tx_ring[i], &temp_ring[i],
          sizeof(struct ixgbe_ring));
  }
  for (j = 0; j < adapter->num_xdp_queues; j++, i++) {
   ixgbe_free_tx_resources(adapter->xdp_ring[j]);

   memcpy(adapter->xdp_ring[j], &temp_ring[i],
          sizeof(struct ixgbe_ring));
  }

  adapter->tx_ring_count = new_tx_count;
 }

 /* Repeat the process for the Rx rings if needed */
 if (new_rx_count != adapter->rx_ring_count) {
  for (i = 0; i < adapter->num_rx_queues; i++) {
   memcpy(&temp_ring[i], adapter->rx_ring[i],
          sizeof(struct ixgbe_ring));

   /* Clear copied XDP RX-queue info */
   memset(&temp_ring[i].xdp_rxq, 0,
          sizeof(temp_ring[i].xdp_rxq));

   temp_ring[i].count = new_rx_count;
   err = ixgbe_setup_rx_resources(adapter, &temp_ring[i]);
   if (err) {
    while (i) {
     i--;
     ixgbe_free_rx_resources(&temp_ring[i]);
    }
    goto err_setup;
   }

  }

  for (i = 0; i < adapter->num_rx_queues; i++) {
   ixgbe_free_rx_resources(adapter->rx_ring[i]);

   memcpy(adapter->rx_ring[i], &temp_ring[i],
          sizeof(struct ixgbe_ring));
  }

  adapter->rx_ring_count = new_rx_count;
 }

err_setup:
 ixgbe_up(adapter);
 vfree(temp_ring);
clear_reset:
 clear_bit(__IXGBE_RESETTING, &adapter->state);
 return err;
}

static int ixgbe_get_sset_count(struct net_device *netdev, int sset)
{
 switch (sset) {
 case ETH_SS_TEST:
  return IXGBE_TEST_LEN;
 case ETH_SS_STATS:
  return IXGBE_STATS_LEN;
 case ETH_SS_PRIV_FLAGS:
  return IXGBE_PRIV_FLAGS_STR_LEN;
 default:
  return -EOPNOTSUPP;
 }
}

static void ixgbe_get_ethtool_stats(struct net_device *netdev,
        struct ethtool_stats *stats, u64 *data)
{
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);
 struct rtnl_link_stats64 temp;
 const struct rtnl_link_stats64 *net_stats;
 unsigned int start;
 struct ixgbe_ring *ring;
 int i, j;
 char *p = NULL;

 ixgbe_update_stats(adapter);
 net_stats = dev_get_stats(netdev, &temp);
 for (i = 0; i < IXGBE_GLOBAL_STATS_LEN; i++) {
  switch (ixgbe_gstrings_stats[i].type) {
  case NETDEV_STATS:
   p = (char *) net_stats +
     ixgbe_gstrings_stats[i].stat_offset;
   break;
  case IXGBE_STATS:
   p = (char *) adapter +
     ixgbe_gstrings_stats[i].stat_offset;
   break;
  default:
   data[i] = 0;
   continue;
  }

  data[i] = (ixgbe_gstrings_stats[i].sizeof_stat ==
      sizeof(u64)) ? *(u64 *)p : *(u32 *)p;
 }
 for (j = 0; j < netdev->num_tx_queues; j++) {
  ring = adapter->tx_ring[j];
  if (!ring) {
   data[i] = 0;
   data[i+1] = 0;
   i += 2;
   continue;
  }

  do {
   start = u64_stats_fetch_begin(&ring->syncp);
   data[i]   = ring->stats.packets;
   data[i+1] = ring->stats.bytes;
  } while (u64_stats_fetch_retry(&ring->syncp, start));
  i += 2;
 }
 for (j = 0; j < IXGBE_NUM_RX_QUEUES; j++) {
  ring = adapter->rx_ring[j];
  if (!ring) {
   data[i] = 0;
   data[i+1] = 0;
   i += 2;
   continue;
  }

  do {
   start = u64_stats_fetch_begin(&ring->syncp);
   data[i]   = ring->stats.packets;
   data[i+1] = ring->stats.bytes;
  } while (u64_stats_fetch_retry(&ring->syncp, start));
  i += 2;
 }

 for (j = 0; j < IXGBE_MAX_PACKET_BUFFERS; j++) {
  data[i++] = adapter->stats.pxontxc[j];
  data[i++] = adapter->stats.pxofftxc[j];
 }
 for (j = 0; j < IXGBE_MAX_PACKET_BUFFERS; j++) {
  data[i++] = adapter->stats.pxonrxc[j];
  data[i++] = adapter->stats.pxoffrxc[j];
 }
}

static void ixgbe_get_strings(struct net_device *netdev, u32 stringset,
         u8 *data)
{
 unsigned int i;
 u8 *p = data;

 switch (stringset) {
 case ETH_SS_TEST:
  for (i = 0; i < IXGBE_TEST_LEN; i++)
   ethtool_puts(&p, ixgbe_gstrings_test[i]);
  break;
 case ETH_SS_STATS:
  for (i = 0; i < IXGBE_GLOBAL_STATS_LEN; i++)
   ethtool_puts(&p, ixgbe_gstrings_stats[i].stat_string);
  for (i = 0; i < netdev->num_tx_queues; i++) {
   ethtool_sprintf(&p, "tx_queue_%u_packets", i);
   ethtool_sprintf(&p, "tx_queue_%u_bytes", i);
  }
  for (i = 0; i < IXGBE_NUM_RX_QUEUES; i++) {
   ethtool_sprintf(&p, "rx_queue_%u_packets", i);
   ethtool_sprintf(&p, "rx_queue_%u_bytes", i);
  }
  for (i = 0; i < IXGBE_MAX_PACKET_BUFFERS; i++) {
   ethtool_sprintf(&p, "tx_pb_%u_pxon", i);
   ethtool_sprintf(&p, "tx_pb_%u_pxoff", i);
  }
  for (i = 0; i < IXGBE_MAX_PACKET_BUFFERS; i++) {
   ethtool_sprintf(&p, "rx_pb_%u_pxon", i);
   ethtool_sprintf(&p, "rx_pb_%u_pxoff", i);
  }
  /* BUG_ON(p - data != IXGBE_STATS_LEN * ETH_GSTRING_LEN); */
  break;
 case ETH_SS_PRIV_FLAGS:
  memcpy(data, ixgbe_priv_flags_strings,
         IXGBE_PRIV_FLAGS_STR_LEN * ETH_GSTRING_LEN);
 }
}

static int ixgbe_link_test(struct ixgbe_adapter *adapter, u64 *data)
{
 struct ixgbe_hw *hw = &adapter->hw;
 bool link_up;
 u32 link_speed = 0;

 if (ixgbe_removed(hw->hw_addr)) {
  *data = 1;
  return 1;
 }
 *data = 0;

 hw->mac.ops.check_link(hw, &link_speed, &link_up, true);
 if (link_up)
  return *data;
 else
  *data = 1;
 return *data;
}

/* ethtool register test data */
struct ixgbe_reg_test {
 u16 reg;
 u8  array_len;
 u8  test_type;
 u32 mask;
 u32 write;
};

/* In the hardware, registers are laid out either singly, in arrays
 * spaced 0x40 bytes apart, or in contiguous tables.  We assume
 * most tests take place on arrays or single registers (handled
 * as a single-element array) and special-case the tables.
 * Table tests are always pattern tests.
 *
 * We also make provision for some required setup steps by specifying
 * registers to be written without any read-back testing.
 */


#define PATTERN_TEST 1
#define SET_READ_TEST 2
#define WRITE_NO_TEST 3
#define TABLE32_TEST 4
#define TABLE64_TEST_LO 5
#define TABLE64_TEST_HI 6

/* default 82599 register test */
static const struct ixgbe_reg_test reg_test_82599[] = {
 { IXGBE_FCRTL_82599(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_FCRTH_82599(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_PFCTOP, 1, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_VLNCTRL, 1, PATTERN_TEST, 0x00000000, 0x00000000 },
 { IXGBE_RDBAL(0), 4, PATTERN_TEST, 0xFFFFFF80, 0xFFFFFF80 },
 { IXGBE_RDBAH(0), 4, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_RDLEN(0), 4, PATTERN_TEST, 0x000FFF80, 0x000FFFFF },
 { IXGBE_RXDCTL(0), 4, WRITE_NO_TEST, 0, IXGBE_RXDCTL_ENABLE },
 { IXGBE_RDT(0), 4, PATTERN_TEST, 0x0000FFFF, 0x0000FFFF },
 { IXGBE_RXDCTL(0), 4, WRITE_NO_TEST, 0, 0 },
 { IXGBE_FCRTH(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_FCTTV(0), 1, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_TDBAL(0), 4, PATTERN_TEST, 0xFFFFFF80, 0xFFFFFFFF },
 { IXGBE_TDBAH(0), 4, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_TDLEN(0), 4, PATTERN_TEST, 0x000FFF80, 0x000FFF80 },
 { IXGBE_RXCTRL, 1, SET_READ_TEST, 0x00000001, 0x00000001 },
 { IXGBE_RAL(0), 16, TABLE64_TEST_LO, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_RAL(0), 16, TABLE64_TEST_HI, 0x8001FFFF, 0x800CFFFF },
 { IXGBE_MTA(0), 128, TABLE32_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { .reg = 0 }
};

/* default 82598 register test */
static const struct ixgbe_reg_test reg_test_82598[] = {
 { IXGBE_FCRTL(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_FCRTH(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_PFCTOP, 1, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_VLNCTRL, 1, PATTERN_TEST, 0x00000000, 0x00000000 },
 { IXGBE_RDBAL(0), 4, PATTERN_TEST, 0xFFFFFF80, 0xFFFFFFFF },
 { IXGBE_RDBAH(0), 4, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_RDLEN(0), 4, PATTERN_TEST, 0x000FFF80, 0x000FFFFF },
 /* Enable all four RX queues before testing. */
 { IXGBE_RXDCTL(0), 4, WRITE_NO_TEST, 0, IXGBE_RXDCTL_ENABLE },
 /* RDH is read-only for 82598, only test RDT. */
 { IXGBE_RDT(0), 4, PATTERN_TEST, 0x0000FFFF, 0x0000FFFF },
 { IXGBE_RXDCTL(0), 4, WRITE_NO_TEST, 0, 0 },
 { IXGBE_FCRTH(0), 1, PATTERN_TEST, 0x8007FFF0, 0x8007FFF0 },
 { IXGBE_FCTTV(0), 1, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_TIPG, 1, PATTERN_TEST, 0x000000FF, 0x000000FF },
 { IXGBE_TDBAL(0), 4, PATTERN_TEST, 0xFFFFFF80, 0xFFFFFFFF },
 { IXGBE_TDBAH(0), 4, PATTERN_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_TDLEN(0), 4, PATTERN_TEST, 0x000FFF80, 0x000FFFFF },
 { IXGBE_RXCTRL, 1, SET_READ_TEST, 0x00000003, 0x00000003 },
 { IXGBE_DTXCTL, 1, SET_READ_TEST, 0x00000005, 0x00000005 },
 { IXGBE_RAL(0), 16, TABLE64_TEST_LO, 0xFFFFFFFF, 0xFFFFFFFF },
 { IXGBE_RAL(0), 16, TABLE64_TEST_HI, 0x800CFFFF, 0x800CFFFF },
 { IXGBE_MTA(0), 128, TABLE32_TEST, 0xFFFFFFFF, 0xFFFFFFFF },
 { .reg = 0 }
};

static bool reg_pattern_test(struct ixgbe_adapter *adapter, u64 *data, int reg,
        u32 mask, u32 write)
{
 u32 pat, val, before;
 static const u32 test_pattern[] = {
  0x5A5A5A5A, 0xA5A5A5A5, 0x00000000, 0xFFFFFFFF};

 if (ixgbe_removed(adapter->hw.hw_addr)) {
  *data = 1;
  return true;
 }
 for (pat = 0; pat < ARRAY_SIZE(test_pattern); pat++) {
  before = ixgbe_read_reg(&adapter->hw, reg);
  ixgbe_write_reg(&adapter->hw, reg, test_pattern[pat] & write);
  val = ixgbe_read_reg(&adapter->hw, reg);
  if (val != (test_pattern[pat] & write & mask)) {
   e_err(drv, "pattern test reg %04X failed: got 0x%08X expected 0x%08X\n",
         reg, val, (test_pattern[pat] & write & mask));
   *data = reg;
   ixgbe_write_reg(&adapter->hw, reg, before);
   return true;
  }
  ixgbe_write_reg(&adapter->hw, reg, before);
 }
 return false;
}

static bool reg_set_and_check(struct ixgbe_adapter *adapter, u64 *data, int reg,
         u32 mask, u32 write)
{
 u32 val, before;

 if (ixgbe_removed(adapter->hw.hw_addr)) {
  *data = 1;
  return true;
 }
 before = ixgbe_read_reg(&adapter->hw, reg);
 ixgbe_write_reg(&adapter->hw, reg, write & mask);
 val = ixgbe_read_reg(&adapter->hw, reg);
 if ((write & mask) != (val & mask)) {
  e_err(drv, "set/check reg %04X test failed: got 0x%08X expected 0x%08X\n",
        reg, (val & mask), (write & mask));
  *data = reg;
  ixgbe_write_reg(&adapter->hw, reg, before);
  return true;
 }
 ixgbe_write_reg(&adapter->hw, reg, before);
 return false;
}

static int ixgbe_reg_test(struct ixgbe_adapter *adapter, u64 *data)
{
 const struct ixgbe_reg_test *test;
 u32 value, before, after;
 u32 i, toggle;

 if (ixgbe_removed(adapter->hw.hw_addr)) {
  e_err(drv, "Adapter removed - register test blocked\n");
  *data = 1;
  return 1;
 }
 switch (adapter->hw.mac.type) {
 case ixgbe_mac_82598EB:
  toggle = 0x7FFFF3FF;
  test = reg_test_82598;
  break;
 case ixgbe_mac_82599EB:
 case ixgbe_mac_X540:
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
 case ixgbe_mac_e610:
  toggle = 0x7FFFF30F;
  test = reg_test_82599;
  break;
 default:
  *data = 1;
  return 1;
 }

 /*
 * Because the status register is such a special case,
 * we handle it separately from the rest of the register
 * tests.  Some bits are read-only, some toggle, and some
 * are writeable on newer MACs.
 */

 before = ixgbe_read_reg(&adapter->hw, IXGBE_STATUS);
 value = (ixgbe_read_reg(&adapter->hw, IXGBE_STATUS) & toggle);
 ixgbe_write_reg(&adapter->hw, IXGBE_STATUS, toggle);
 after = ixgbe_read_reg(&adapter->hw, IXGBE_STATUS) & toggle;
 if (value != after) {
  e_err(drv, "failed STATUS register test got: 0x%08X expected: 0x%08X\n",
        after, value);
  *data = 1;
  return 1;
 }
 /* restore previous status */
 ixgbe_write_reg(&adapter->hw, IXGBE_STATUS, before);

 /*
 * Perform the remainder of the register test, looping through
 * the test table until we either fail or reach the null entry.
 */

 while (test->reg) {
  for (i = 0; i < test->array_len; i++) {
   bool b = false;

   switch (test->test_type) {
   case PATTERN_TEST:
    b = reg_pattern_test(adapter, data,
           test->reg + (i * 0x40),
           test->mask,
           test->write);
    break;
   case SET_READ_TEST:
    b = reg_set_and_check(adapter, data,
            test->reg + (i * 0x40),
            test->mask,
            test->write);
    break;
   case WRITE_NO_TEST:
    ixgbe_write_reg(&adapter->hw,
      test->reg + (i * 0x40),
      test->write);
    break;
   case TABLE32_TEST:
    b = reg_pattern_test(adapter, data,
           test->reg + (i * 4),
           test->mask,
           test->write);
    break;
   case TABLE64_TEST_LO:
    b = reg_pattern_test(adapter, data,
           test->reg + (i * 8),
           test->mask,
           test->write);
    break;
   case TABLE64_TEST_HI:
    b = reg_pattern_test(adapter, data,
           (test->reg + 4) + (i * 8),
           test->mask,
           test->write);
    break;
   }
   if (b)
    return 1;
  }
  test++;
 }

 *data = 0;
 return 0;
}

static int ixgbe_eeprom_test(struct ixgbe_adapter *adapter, u64 *data)
{
 struct ixgbe_hw *hw = &adapter->hw;
 if (hw->eeprom.ops.validate_checksum(hw, NULL))
  *data = 1;
 else
  *data = 0;
 return *data;
}

static irqreturn_t ixgbe_test_intr(int irq, void *data)
{
 struct net_device *netdev = (struct net_device *) data;
 struct ixgbe_adapter *adapter = ixgbe_from_netdev(netdev);

 adapter->test_icr |= IXGBE_READ_REG(&adapter->hw, IXGBE_EICR);

 return IRQ_HANDLED;
}

static int ixgbe_intr_test(struct ixgbe_adapter *adapter, u64 *data)
{
 struct net_device *netdev = adapter->netdev;
 u32 mask, i = 0, shared_int = true;
 u32 irq = adapter->pdev->irq;

 *data = 0;

 /* Hook up test interrupt handler just for this test */
 if (adapter->msix_entries) {
  /* NOTE: we don't test MSI-X interrupts here, yet */
  return 0;
 } else if (adapter->flags & IXGBE_FLAG_MSI_ENABLED) {
  shared_int = false;
  if (request_irq(irq, ixgbe_test_intr, 0, netdev->name,
    netdev)) {
   *data = 1;
   return -1;
  }
 } else if (!request_irq(irq, ixgbe_test_intr, IRQF_PROBE_SHARED,
    netdev->name, netdev)) {
  shared_int = false;
 } else if (request_irq(irq, ixgbe_test_intr, IRQF_SHARED,
          netdev->name, netdev)) {
  *data = 1;
  return -1;
 }
 e_info(hw, "testing %s interrupt\n", shared_int ?
        "shared" : "unshared");

 /* Disable all the interrupts */
 IXGBE_WRITE_REG(&adapter->hw, IXGBE_EIMC, 0xFFFFFFFF);
 IXGBE_WRITE_FLUSH(&adapter->hw);
 usleep_range(10000, 20000);

 /* Test each interrupt */
 for (; i < 10; i++) {
  /* Interrupt to test */
  mask = BIT(i);

  if (!shared_int) {
   /*
 * Disable the interrupts to be reported in
 * the cause register and then force the same
 * interrupt and see if one gets posted.  If
 * an interrupt was posted to the bus, the
 * test failed.
 */

   adapter->test_icr = 0;
   IXGBE_WRITE_REG(&adapter->hw, IXGBE_EIMC,
     ~mask & 0x00007FFF);
   IXGBE_WRITE_REG(&adapter->hw, IXGBE_EICS,
     ~mask & 0x00007FFF);
   IXGBE_WRITE_FLUSH(&adapter->hw);
   usleep_range(10000, 20000);

   if (adapter->test_icr & mask) {
    *data = 3;
    break;
   }
  }

  /*
 * Enable the interrupt to be reported in the cause
 * register and then force the same interrupt and see
 * if one gets posted.  If an interrupt was not posted
 * to the bus, the test failed.
 */

  adapter->test_icr = 0;
  IXGBE_WRITE_REG(&adapter->hw, IXGBE_EIMS, mask);
  IXGBE_WRITE_REG(&adapter->hw, IXGBE_EICS, mask);
  IXGBE_WRITE_FLUSH(&adapter->hw);
  usleep_range(10000, 20000);

  if (!(adapter->test_icr & mask)) {
   *data = 4;
   break;
  }

  if (!shared_int) {
   /*
 * Disable the other interrupts to be reported in
 * the cause register and then force the other
 * interrupts and see if any get posted.  If
 * an interrupt was posted to the bus, the
 * test failed.
 */

   adapter->test_icr = 0;
   IXGBE_WRITE_REG(&adapter->hw, IXGBE_EIMC,
     ~mask & 0x00007FFF);
   IXGBE_WRITE_REG(&adapter->hw, IXGBE_EICS,
     ~mask & 0x00007FFF);
   IXGBE_WRITE_FLUSH(&adapter->hw);
   usleep_range(10000, 20000);

   if (adapter->test_icr) {
    *data = 5;
    break;
   }
  }
 }

 /* Disable all the interrupts */
 IXGBE_WRITE_REG(&adapter->hw, IXGBE_EIMC, 0xFFFFFFFF);
 IXGBE_WRITE_FLUSH(&adapter->hw);
 usleep_range(10000, 20000);

 /* Unhook test interrupt handler */
 free_irq(irq, netdev);

 return *data;
}

static void ixgbe_free_desc_rings(struct ixgbe_adapter *adapter)
{
 /* Shut down the DMA engines now so they can be reinitialized later,
 * since the test rings and normally used rings should overlap on
 * queue 0 we can just use the standard disable Rx/Tx calls and they
 * will take care of disabling the test rings for us.
 */


 /* first Rx */
 ixgbe_disable_rx(adapter);

 /* now Tx */
 ixgbe_disable_tx(adapter);

 ixgbe_reset(adapter);

 ixgbe_free_tx_resources(&adapter->test_tx_ring);
 ixgbe_free_rx_resources(&adapter->test_rx_ring);
}

static int ixgbe_setup_desc_rings(struct ixgbe_adapter *adapter)
{
 struct ixgbe_ring *tx_ring = &adapter->test_tx_ring;
 struct ixgbe_ring *rx_ring = &adapter->test_rx_ring;
 struct ixgbe_hw *hw = &adapter->hw;
 u32 rctl, reg_data;
 int ret_val;
 int err;

 /* Setup Tx descriptor ring and Tx buffers */
 tx_ring->count = IXGBE_DEFAULT_TXD;
 tx_ring->queue_index = 0;
 tx_ring->dev = &adapter->pdev->dev;
 tx_ring->netdev = adapter->netdev;
 tx_ring->reg_idx = adapter->tx_ring[0]->reg_idx;

 err = ixgbe_setup_tx_resources(tx_ring);
 if (err)
  return 1;

 switch (adapter->hw.mac.type) {
 case ixgbe_mac_82599EB:
 case ixgbe_mac_X540:
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
 case ixgbe_mac_e610:
  reg_data = IXGBE_READ_REG(&adapter->hw, IXGBE_DMATXCTL);
  reg_data |= IXGBE_DMATXCTL_TE;
  IXGBE_WRITE_REG(&adapter->hw, IXGBE_DMATXCTL, reg_data);
  break;
 default:
  break;
 }

 ixgbe_configure_tx_ring(adapter, tx_ring);

 /* Setup Rx Descriptor ring and Rx buffers */
 rx_ring->count = IXGBE_DEFAULT_RXD;
 rx_ring->queue_index = 0;
 rx_ring->dev = &adapter->pdev->dev;
 rx_ring->netdev = adapter->netdev;
 rx_ring->reg_idx = adapter->rx_ring[0]->reg_idx;

 err = ixgbe_setup_rx_resources(adapter, rx_ring);
 if (err) {
  ret_val = 4;
  goto err_nomem;
 }

 hw->mac.ops.disable_rx(hw);

 ixgbe_configure_rx_ring(adapter, rx_ring);

 rctl = IXGBE_READ_REG(&adapter->hw, IXGBE_RXCTRL);
 rctl |= IXGBE_RXCTRL_DMBYPS;
 IXGBE_WRITE_REG(&adapter->hw, IXGBE_RXCTRL, rctl);

 hw->mac.ops.enable_rx(hw);

 return 0;

err_nomem:
 ixgbe_free_desc_rings(adapter);
 return ret_val;
}

static int ixgbe_setup_loopback_test(struct ixgbe_adapter *adapter)
{
 struct ixgbe_hw *hw = &adapter->hw;
 u32 reg_data;


 /* Setup MAC loopback */
 reg_data = IXGBE_READ_REG(hw, IXGBE_HLREG0);
 reg_data |= IXGBE_HLREG0_LPBK;
 IXGBE_WRITE_REG(hw, IXGBE_HLREG0, reg_data);

 reg_data = IXGBE_READ_REG(hw, IXGBE_FCTRL);
 reg_data |= IXGBE_FCTRL_BAM | IXGBE_FCTRL_SBP | IXGBE_FCTRL_MPE;
 IXGBE_WRITE_REG(hw, IXGBE_FCTRL, reg_data);

 /* X540 and X550 needs to set the MACC.FLU bit to force link up */
 switch (adapter->hw.mac.type) {
 case ixgbe_mac_X540:
 case ixgbe_mac_X550:
 case ixgbe_mac_X550EM_x:
 case ixgbe_mac_x550em_a:
 case ixgbe_mac_e610:
  reg_data = IXGBE_READ_REG(hw, IXGBE_MACC);
  reg_data |= IXGBE_MACC_FLU;
  IXGBE_WRITE_REG(hw, IXGBE_MACC, reg_data);
  break;
 default:
  if (hw->mac.orig_autoc) {
   reg_data = hw->mac.orig_autoc | IXGBE_AUTOC_FLU;
   IXGBE_WRITE_REG(hw, IXGBE_AUTOC, reg_data);
  } else {
   return 10;
  }
 }
 IXGBE_WRITE_FLUSH(hw);
 usleep_range(10000, 20000);

 /* Disable Atlas Tx lanes; re-enabled in reset path */
 if (hw->mac.type == ixgbe_mac_82598EB) {
  u8 atlas;

  hw->mac.ops.read_analog_reg8(hw, IXGBE_ATLAS_PDN_LPBK, &atlas);
  atlas |= IXGBE_ATLAS_PDN_TX_REG_EN;
  hw->mac.ops.write_analog_reg8(hw, IXGBE_ATLAS_PDN_LPBK, atlas);

  hw->mac.ops.read_analog_reg8(hw, IXGBE_ATLAS_PDN_10G, &atlas);
  atlas |= IXGBE_ATLAS_PDN_TX_10G_QL_ALL;
  hw->mac.ops.write_analog_reg8(hw, IXGBE_ATLAS_PDN_10G, atlas);

  hw->mac.ops.read_analog_reg8(hw, IXGBE_ATLAS_PDN_1G, &atlas);
  atlas |= IXGBE_ATLAS_PDN_TX_1G_QL_ALL;
  hw->mac.ops.write_analog_reg8(hw, IXGBE_ATLAS_PDN_1G, atlas);

  hw->mac.ops.read_analog_reg8(hw, IXGBE_ATLAS_PDN_AN, &atlas);
  atlas |= IXGBE_ATLAS_PDN_TX_AN_QL_ALL;
  hw->mac.ops.write_analog_reg8(hw, IXGBE_ATLAS_PDN_AN, atlas);
 }

 return 0;
}

static void ixgbe_loopback_cleanup(struct ixgbe_adapter *adapter)
{
 u32 reg_data;

 reg_data = IXGBE_READ_REG(&adapter->hw, IXGBE_HLREG0);
 reg_data &= ~IXGBE_HLREG0_LPBK;
 IXGBE_WRITE_REG(&adapter->hw, IXGBE_HLREG0, reg_data);
}

static void ixgbe_create_lbtest_frame(struct sk_buff *skb,
          unsigned int frame_size)
{
 memset(skb->data, 0xFF, frame_size);
 frame_size >>= 1;
 memset(&skb->data[frame_size], 0xAA, frame_size / 2 - 1);
 skb->data[frame_size + 10] = 0xBE;
 skb->data[frame_size + 12] = 0xAF;
}

static bool ixgbe_check_lbtest_frame(struct ixgbe_rx_buffer *rx_buffer,
         unsigned int frame_size)
{
 unsigned char *data;

 frame_size >>= 1;

 data = page_address(rx_buffer->page) + rx_buffer->page_offset;

 return data[3] == 0xFF && data[frame_size + 10] == 0xBE &&
  data[frame_size + 12] == 0xAF;
}

static u16 ixgbe_clean_test_rings(struct ixgbe_ring *rx_ring,
      struct ixgbe_ring *tx_ring,
      unsigned int size)
{
 union ixgbe_adv_rx_desc *rx_desc;
 u16 rx_ntc, tx_ntc, count = 0;

 /* initialize next to clean and descriptor values */
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=97 H=81 G=89

¤ Dauer der Verarbeitung: 0.27 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.