Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


Quelle  spectrum.c   Sprache: C

 
// SPDX-License-Identifier: BSD-3-Clause OR GPL-2.0
/* Copyright (c) 2015-2018 Mellanox Technologies. All rights reserved */

#include <linux/kernel.h>
#include <linux/module.h>
#include <linux/types.h>
#include <linux/pci.h>
#include <linux/netdevice.h>
#include <linux/etherdevice.h>
#include <linux/ethtool.h>
#include <linux/slab.h>
#include <linux/device.h>
#include <linux/skbuff.h>
#include <linux/if_vlan.h>
#include <linux/if_bridge.h>
#include <linux/workqueue.h>
#include <linux/jiffies.h>
#include <linux/bitops.h>
#include <linux/list.h>
#include <linux/notifier.h>
#include <linux/dcbnl.h>
#include <linux/inetdevice.h>
#include <linux/netlink.h>
#include <linux/jhash.h>
#include <linux/log2.h>
#include <linux/refcount.h>
#include <linux/rhashtable.h>
#include <net/switchdev.h>
#include <net/pkt_cls.h>
#include <net/netevent.h>
#include <net/addrconf.h>
#include <linux/ptp_classify.h>

#include "spectrum.h"
#include "pci.h"
#include "core.h"
#include "core_env.h"
#include "reg.h"
#include "port.h"
#include "trap.h"
#include "txheader.h"
#include "spectrum_cnt.h"
#include "spectrum_dpipe.h"
#include "spectrum_acl_flex_actions.h"
#include "spectrum_span.h"
#include "spectrum_ptp.h"
#include "spectrum_trap.h"

#define MLXSW_SP_FWREV_MINOR 2010
#define MLXSW_SP_FWREV_SUBMINOR 1006

#define MLXSW_SP1_FWREV_MAJOR 13
#define MLXSW_SP1_FWREV_CAN_RESET_MINOR 1702

static const struct mlxsw_fw_rev mlxsw_sp1_fw_rev = {
 .major = MLXSW_SP1_FWREV_MAJOR,
 .minor = MLXSW_SP_FWREV_MINOR,
 .subminor = MLXSW_SP_FWREV_SUBMINOR,
 .can_reset_minor = MLXSW_SP1_FWREV_CAN_RESET_MINOR,
};

#define MLXSW_SP1_FW_FILENAME \
 "mellanox/mlxsw_spectrum-" __stringify(MLXSW_SP1_FWREV_MAJOR) \
 "." __stringify(MLXSW_SP_FWREV_MINOR) \
 "." __stringify(MLXSW_SP_FWREV_SUBMINOR) ".mfa2"

#define MLXSW_SP2_FWREV_MAJOR 29

static const struct mlxsw_fw_rev mlxsw_sp2_fw_rev = {
 .major = MLXSW_SP2_FWREV_MAJOR,
 .minor = MLXSW_SP_FWREV_MINOR,
 .subminor = MLXSW_SP_FWREV_SUBMINOR,
};

#define MLXSW_SP2_FW_FILENAME \
 "mellanox/mlxsw_spectrum2-" __stringify(MLXSW_SP2_FWREV_MAJOR) \
 "." __stringify(MLXSW_SP_FWREV_MINOR) \
 "." __stringify(MLXSW_SP_FWREV_SUBMINOR) ".mfa2"

#define MLXSW_SP3_FWREV_MAJOR 30

static const struct mlxsw_fw_rev mlxsw_sp3_fw_rev = {
 .major = MLXSW_SP3_FWREV_MAJOR,
 .minor = MLXSW_SP_FWREV_MINOR,
 .subminor = MLXSW_SP_FWREV_SUBMINOR,
};

#define MLXSW_SP3_FW_FILENAME \
 "mellanox/mlxsw_spectrum3-" __stringify(MLXSW_SP3_FWREV_MAJOR) \
 "." __stringify(MLXSW_SP_FWREV_MINOR) \
 "." __stringify(MLXSW_SP_FWREV_SUBMINOR) ".mfa2"

#define MLXSW_SP_LINECARDS_INI_BUNDLE_FILENAME \
 "mellanox/lc_ini_bundle_" \
 __stringify(MLXSW_SP_FWREV_MINOR) "_" \
 __stringify(MLXSW_SP_FWREV_SUBMINOR) ".bin"

static const char mlxsw_sp1_driver_name[] = "mlxsw_spectrum";
static const char mlxsw_sp2_driver_name[] = "mlxsw_spectrum2";
static const char mlxsw_sp3_driver_name[] = "mlxsw_spectrum3";
static const char mlxsw_sp4_driver_name[] = "mlxsw_spectrum4";

static const unsigned char mlxsw_sp1_mac_mask[ETH_ALEN] = {
 0xff, 0xff, 0xff, 0xff, 0xfc, 0x00
};
static const unsigned char mlxsw_sp2_mac_mask[ETH_ALEN] = {
 0xff, 0xff, 0xff, 0xff, 0xf0, 0x00
};

int mlxsw_sp_flow_counter_get(struct mlxsw_sp *mlxsw_sp,
         unsigned int counter_index, bool clear,
         u64 *packets, u64 *bytes)
{
 enum mlxsw_reg_mgpc_opcode op = clear ? MLXSW_REG_MGPC_OPCODE_CLEAR :
      MLXSW_REG_MGPC_OPCODE_NOP;
 char mgpc_pl[MLXSW_REG_MGPC_LEN];
 int err;

 mlxsw_reg_mgpc_pack(mgpc_pl, counter_index, op,
       MLXSW_REG_FLOW_COUNTER_SET_TYPE_PACKETS_BYTES);
 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(mgpc), mgpc_pl);
 if (err)
  return err;
 if (packets)
  *packets = mlxsw_reg_mgpc_packet_counter_get(mgpc_pl);
 if (bytes)
  *bytes = mlxsw_reg_mgpc_byte_counter_get(mgpc_pl);
 return 0;
}

static int mlxsw_sp_flow_counter_clear(struct mlxsw_sp *mlxsw_sp,
           unsigned int counter_index)
{
 char mgpc_pl[MLXSW_REG_MGPC_LEN];

 mlxsw_reg_mgpc_pack(mgpc_pl, counter_index, MLXSW_REG_MGPC_OPCODE_CLEAR,
       MLXSW_REG_FLOW_COUNTER_SET_TYPE_PACKETS_BYTES);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(mgpc), mgpc_pl);
}

int mlxsw_sp_flow_counter_alloc(struct mlxsw_sp *mlxsw_sp,
    unsigned int *p_counter_index)
{
 int err;

 err = mlxsw_sp_counter_alloc(mlxsw_sp, MLXSW_SP_COUNTER_SUB_POOL_FLOW,
         p_counter_index);
 if (err)
  return err;
 err = mlxsw_sp_flow_counter_clear(mlxsw_sp, *p_counter_index);
 if (err)
  goto err_counter_clear;
 return 0;

err_counter_clear:
 mlxsw_sp_counter_free(mlxsw_sp, MLXSW_SP_COUNTER_SUB_POOL_FLOW,
         *p_counter_index);
 return err;
}

void mlxsw_sp_flow_counter_free(struct mlxsw_sp *mlxsw_sp,
    unsigned int counter_index)
{
  mlxsw_sp_counter_free(mlxsw_sp, MLXSW_SP_COUNTER_SUB_POOL_FLOW,
          counter_index);
}

static bool mlxsw_sp_skb_requires_ts(struct sk_buff *skb)
{
 unsigned int type;

 if (!(skb_shinfo(skb)->tx_flags & SKBTX_HW_TSTAMP))
  return false;

 type = ptp_classify_raw(skb);
 return !!ptp_parse_header(skb, type);
}

static void mlxsw_sp_txhdr_info_data_init(struct mlxsw_core *mlxsw_core,
       struct sk_buff *skb,
       struct mlxsw_txhdr_info *txhdr_info)
{
 /* Resource validation was done as part of PTP init. */
 u16 max_fid = MLXSW_CORE_RES_GET(mlxsw_core, FID);

 txhdr_info->data = true;
 txhdr_info->max_fid = max_fid;
}

static struct sk_buff *
mlxsw_sp_vlan_tag_push(struct mlxsw_sp *mlxsw_sp, struct sk_buff *skb)
{
 /* In some Spectrum ASICs, in order for PTP event packets to have their
 * correction field correctly set on the egress port they must be
 * transmitted as data packets. Such packets ingress the ASIC via the
 * CPU port and must have a VLAN tag, as the CPU port is not configured
 * with a PVID. Push the default VLAN (4095), which is configured as
 * egress untagged on all the ports.
 */

 if (skb_vlan_tagged(skb))
  return skb;

 return vlan_insert_tag_set_proto(skb, htons(ETH_P_8021Q),
      MLXSW_SP_DEFAULT_VID);
}

static struct sk_buff *
mlxsw_sp_txhdr_preparations(struct mlxsw_sp *mlxsw_sp, struct sk_buff *skb,
       struct mlxsw_txhdr_info *txhdr_info)
{
 if (likely(!mlxsw_sp_skb_requires_ts(skb)))
  return skb;

 if (!mlxsw_sp->ptp_ops->tx_as_data)
  return skb;

 /* Special handling for PTP events that require a time stamp and cannot
 * be transmitted as regular control packets.
 */

 mlxsw_sp_txhdr_info_data_init(mlxsw_sp->core, skb, txhdr_info);
 return mlxsw_sp_vlan_tag_push(mlxsw_sp, skb);
}

enum mlxsw_reg_spms_state mlxsw_sp_stp_spms_state(u8 state)
{
 switch (state) {
 case BR_STATE_FORWARDING:
  return MLXSW_REG_SPMS_STATE_FORWARDING;
 case BR_STATE_LEARNING:
  return MLXSW_REG_SPMS_STATE_LEARNING;
 case BR_STATE_LISTENING:
 case BR_STATE_DISABLED:
 case BR_STATE_BLOCKING:
  return MLXSW_REG_SPMS_STATE_DISCARDING;
 default:
  BUG();
 }
}

int mlxsw_sp_port_vid_stp_set(struct mlxsw_sp_port *mlxsw_sp_port, u16 vid,
         u8 state)
{
 enum mlxsw_reg_spms_state spms_state = mlxsw_sp_stp_spms_state(state);
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char *spms_pl;
 int err;

 spms_pl = kmalloc(MLXSW_REG_SPMS_LEN, GFP_KERNEL);
 if (!spms_pl)
  return -ENOMEM;
 mlxsw_reg_spms_pack(spms_pl, mlxsw_sp_port->local_port);
 mlxsw_reg_spms_vid_pack(spms_pl, vid, spms_state);

 err = mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spms), spms_pl);
 kfree(spms_pl);
 return err;
}

static int mlxsw_sp_base_mac_get(struct mlxsw_sp *mlxsw_sp)
{
 char spad_pl[MLXSW_REG_SPAD_LEN] = {0};
 int err;

 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(spad), spad_pl);
 if (err)
  return err;
 mlxsw_reg_spad_base_mac_memcpy_from(spad_pl, mlxsw_sp->base_mac);
 return 0;
}

int mlxsw_sp_port_admin_status_set(struct mlxsw_sp_port *mlxsw_sp_port,
       bool is_up)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char paos_pl[MLXSW_REG_PAOS_LEN];

 mlxsw_reg_paos_pack(paos_pl, mlxsw_sp_port->local_port,
       is_up ? MLXSW_PORT_ADMIN_STATUS_UP :
       MLXSW_PORT_ADMIN_STATUS_DOWN);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(paos), paos_pl);
}

static int mlxsw_sp_port_dev_addr_set(struct mlxsw_sp_port *mlxsw_sp_port,
          const unsigned char *addr)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char ppad_pl[MLXSW_REG_PPAD_LEN];

 mlxsw_reg_ppad_pack(ppad_pl, true, mlxsw_sp_port->local_port);
 mlxsw_reg_ppad_mac_memcpy_to(ppad_pl, addr);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(ppad), ppad_pl);
}

static int mlxsw_sp_port_dev_addr_init(struct mlxsw_sp_port *mlxsw_sp_port)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;

 eth_hw_addr_gen(mlxsw_sp_port->dev, mlxsw_sp->base_mac,
   mlxsw_sp_port->local_port);
 return mlxsw_sp_port_dev_addr_set(mlxsw_sp_port,
       mlxsw_sp_port->dev->dev_addr);
}

static int mlxsw_sp_port_mtu_set(struct mlxsw_sp_port *mlxsw_sp_port, u16 mtu)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char pmtu_pl[MLXSW_REG_PMTU_LEN];

 mtu += MLXSW_PORT_ETH_FRAME_HDR;

 mlxsw_reg_pmtu_pack(pmtu_pl, mlxsw_sp_port->local_port, mtu);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(pmtu), pmtu_pl);
}

static int mlxsw_sp_port_swid_set(struct mlxsw_sp *mlxsw_sp,
      u16 local_port, u8 swid)
{
 char pspa_pl[MLXSW_REG_PSPA_LEN];

 mlxsw_reg_pspa_pack(pspa_pl, swid, local_port);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(pspa), pspa_pl);
}

int mlxsw_sp_port_vp_mode_set(struct mlxsw_sp_port *mlxsw_sp_port, bool enable)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char svpe_pl[MLXSW_REG_SVPE_LEN];

 mlxsw_reg_svpe_pack(svpe_pl, mlxsw_sp_port->local_port, enable);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(svpe), svpe_pl);
}

int mlxsw_sp_port_vid_learning_set(struct mlxsw_sp_port *mlxsw_sp_port, u16 vid,
       bool learn_enable)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char *spvmlr_pl;
 int err;

 spvmlr_pl = kmalloc(MLXSW_REG_SPVMLR_LEN, GFP_KERNEL);
 if (!spvmlr_pl)
  return -ENOMEM;
 mlxsw_reg_spvmlr_pack(spvmlr_pl, mlxsw_sp_port->local_port, vid, vid,
         learn_enable);
 err = mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spvmlr), spvmlr_pl);
 kfree(spvmlr_pl);
 return err;
}

int mlxsw_sp_port_security_set(struct mlxsw_sp_port *mlxsw_sp_port, bool enable)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char spfsr_pl[MLXSW_REG_SPFSR_LEN];
 int err;

 if (mlxsw_sp_port->security == enable)
  return 0;

 mlxsw_reg_spfsr_pack(spfsr_pl, mlxsw_sp_port->local_port, enable);
 err = mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spfsr), spfsr_pl);
 if (err)
  return err;

 mlxsw_sp_port->security = enable;
 return 0;
}

int mlxsw_sp_ethtype_to_sver_type(u16 ethtype, u8 *p_sver_type)
{
 switch (ethtype) {
 case ETH_P_8021Q:
  *p_sver_type = 0;
  break;
 case ETH_P_8021AD:
  *p_sver_type = 1;
  break;
 default:
  return -EINVAL;
 }

 return 0;
}

int mlxsw_sp_port_egress_ethtype_set(struct mlxsw_sp_port *mlxsw_sp_port,
         u16 ethtype)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char spevet_pl[MLXSW_REG_SPEVET_LEN];
 u8 sver_type;
 int err;

 err = mlxsw_sp_ethtype_to_sver_type(ethtype, &sver_type);
 if (err)
  return err;

 mlxsw_reg_spevet_pack(spevet_pl, mlxsw_sp_port->local_port, sver_type);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spevet), spevet_pl);
}

static int __mlxsw_sp_port_pvid_set(struct mlxsw_sp_port *mlxsw_sp_port,
        u16 vid, u16 ethtype)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char spvid_pl[MLXSW_REG_SPVID_LEN];
 u8 sver_type;
 int err;

 err = mlxsw_sp_ethtype_to_sver_type(ethtype, &sver_type);
 if (err)
  return err;

 mlxsw_reg_spvid_pack(spvid_pl, mlxsw_sp_port->local_port, vid,
        sver_type);

 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spvid), spvid_pl);
}

static int mlxsw_sp_port_allow_untagged_set(struct mlxsw_sp_port *mlxsw_sp_port,
         bool allow)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char spaft_pl[MLXSW_REG_SPAFT_LEN];

 mlxsw_reg_spaft_pack(spaft_pl, mlxsw_sp_port->local_port, allow);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spaft), spaft_pl);
}

int mlxsw_sp_port_pvid_set(struct mlxsw_sp_port *mlxsw_sp_port, u16 vid,
      u16 ethtype)
{
 int err;

 if (!vid) {
  err = mlxsw_sp_port_allow_untagged_set(mlxsw_sp_port, false);
  if (err)
   return err;
 } else {
  err = __mlxsw_sp_port_pvid_set(mlxsw_sp_port, vid, ethtype);
  if (err)
   return err;
  err = mlxsw_sp_port_allow_untagged_set(mlxsw_sp_port, true);
  if (err)
   goto err_port_allow_untagged_set;
 }

 mlxsw_sp_port->pvid = vid;
 return 0;

err_port_allow_untagged_set:
 __mlxsw_sp_port_pvid_set(mlxsw_sp_port, mlxsw_sp_port->pvid, ethtype);
 return err;
}

static int
mlxsw_sp_port_system_port_mapping_set(struct mlxsw_sp_port *mlxsw_sp_port)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char sspr_pl[MLXSW_REG_SSPR_LEN];

 mlxsw_reg_sspr_pack(sspr_pl, mlxsw_sp_port->local_port);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(sspr), sspr_pl);
}

static int
mlxsw_sp_port_module_info_parse(struct mlxsw_sp *mlxsw_sp,
    u16 local_port, char *pmlp_pl,
    struct mlxsw_sp_port_mapping *port_mapping)
{
 bool separate_rxtx;
 u8 first_lane;
 u8 slot_index;
 u8 module;
 u8 width;
 int i;

 module = mlxsw_reg_pmlp_module_get(pmlp_pl, 0);
 slot_index = mlxsw_reg_pmlp_slot_index_get(pmlp_pl, 0);
 width = mlxsw_reg_pmlp_width_get(pmlp_pl);
 separate_rxtx = mlxsw_reg_pmlp_rxtx_get(pmlp_pl);
 first_lane = mlxsw_reg_pmlp_tx_lane_get(pmlp_pl, 0);

 if (width && !is_power_of_2(width)) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unsupported module config: width value is not power of 2\n",
   local_port);
  return -EINVAL;
 }

 for (i = 0; i < width; i++) {
  if (mlxsw_reg_pmlp_module_get(pmlp_pl, i) != module) {
   dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unsupported module config: contains multiple modules\n",
    local_port);
   return -EINVAL;
  }
  if (mlxsw_reg_pmlp_slot_index_get(pmlp_pl, i) != slot_index) {
   dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unsupported module config: contains multiple slot indexes\n",
    local_port);
   return -EINVAL;
  }
  if (separate_rxtx &&
      mlxsw_reg_pmlp_tx_lane_get(pmlp_pl, i) !=
      mlxsw_reg_pmlp_rx_lane_get(pmlp_pl, i)) {
   dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unsupported module config: TX and RX lane numbers are different\n",
    local_port);
   return -EINVAL;
  }
  if (mlxsw_reg_pmlp_tx_lane_get(pmlp_pl, i) != i + first_lane) {
   dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unsupported module config: TX and RX lane numbers are not sequential\n",
    local_port);
   return -EINVAL;
  }
 }

 port_mapping->module = module;
 port_mapping->slot_index = slot_index;
 port_mapping->width = width;
 port_mapping->module_width = width;
 port_mapping->lane = mlxsw_reg_pmlp_tx_lane_get(pmlp_pl, 0);
 return 0;
}

static int
mlxsw_sp_port_module_info_get(struct mlxsw_sp *mlxsw_sp, u16 local_port,
         struct mlxsw_sp_port_mapping *port_mapping)
{
 char pmlp_pl[MLXSW_REG_PMLP_LEN];
 int err;

 mlxsw_reg_pmlp_pack(pmlp_pl, local_port);
 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(pmlp), pmlp_pl);
 if (err)
  return err;
 return mlxsw_sp_port_module_info_parse(mlxsw_sp, local_port,
            pmlp_pl, port_mapping);
}

static int
mlxsw_sp_port_module_map(struct mlxsw_sp *mlxsw_sp, u16 local_port,
    const struct mlxsw_sp_port_mapping *port_mapping)
{
 char pmlp_pl[MLXSW_REG_PMLP_LEN];
 int i, err;

 mlxsw_env_module_port_map(mlxsw_sp->core, port_mapping->slot_index,
      port_mapping->module);

 mlxsw_reg_pmlp_pack(pmlp_pl, local_port);
 mlxsw_reg_pmlp_width_set(pmlp_pl, port_mapping->width);
 for (i = 0; i < port_mapping->width; i++) {
  mlxsw_reg_pmlp_slot_index_set(pmlp_pl, i,
           port_mapping->slot_index);
  mlxsw_reg_pmlp_module_set(pmlp_pl, i, port_mapping->module);
  mlxsw_reg_pmlp_tx_lane_set(pmlp_pl, i, port_mapping->lane + i); /* Rx & Tx */
 }

 err = mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(pmlp), pmlp_pl);
 if (err)
  goto err_pmlp_write;
 return 0;

err_pmlp_write:
 mlxsw_env_module_port_unmap(mlxsw_sp->core, port_mapping->slot_index,
        port_mapping->module);
 return err;
}

static void mlxsw_sp_port_module_unmap(struct mlxsw_sp *mlxsw_sp, u16 local_port,
           u8 slot_index, u8 module)
{
 char pmlp_pl[MLXSW_REG_PMLP_LEN];

 mlxsw_reg_pmlp_pack(pmlp_pl, local_port);
 mlxsw_reg_pmlp_width_set(pmlp_pl, 0);
 mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(pmlp), pmlp_pl);
 mlxsw_env_module_port_unmap(mlxsw_sp->core, slot_index, module);
}

static int mlxsw_sp_port_open(struct net_device *dev)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 int err;

 err = mlxsw_env_module_port_up(mlxsw_sp->core,
           mlxsw_sp_port->mapping.slot_index,
           mlxsw_sp_port->mapping.module);
 if (err)
  return err;
 err = mlxsw_sp_port_admin_status_set(mlxsw_sp_port, true);
 if (err)
  goto err_port_admin_status_set;
 netif_start_queue(dev);
 return 0;

err_port_admin_status_set:
 mlxsw_env_module_port_down(mlxsw_sp->core,
       mlxsw_sp_port->mapping.slot_index,
       mlxsw_sp_port->mapping.module);
 return err;
}

static int mlxsw_sp_port_stop(struct net_device *dev)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;

 netif_stop_queue(dev);
 mlxsw_sp_port_admin_status_set(mlxsw_sp_port, false);
 mlxsw_env_module_port_down(mlxsw_sp->core,
       mlxsw_sp_port->mapping.slot_index,
       mlxsw_sp_port->mapping.module);
 return 0;
}

static netdev_tx_t mlxsw_sp_port_xmit(struct sk_buff *skb,
          struct net_device *dev)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 struct mlxsw_sp_port_pcpu_stats *pcpu_stats;
 struct mlxsw_txhdr_info txhdr_info = {
  .tx_info.local_port = mlxsw_sp_port->local_port,
  .tx_info.is_emad = false,
 };
 u64 len;
 int err;

 memset(skb->cb, 0, sizeof(struct mlxsw_skb_cb));

 if (mlxsw_core_skb_transmit_busy(mlxsw_sp->core, &txhdr_info.tx_info))
  return NETDEV_TX_BUSY;

 if (eth_skb_pad(skb)) {
  this_cpu_inc(mlxsw_sp_port->pcpu_stats->tx_dropped);
  return NETDEV_TX_OK;
 }

 skb = mlxsw_sp_txhdr_preparations(mlxsw_sp, skb, &txhdr_info);
 if (!skb) {
  this_cpu_inc(mlxsw_sp_port->pcpu_stats->tx_dropped);
  return NETDEV_TX_OK;
 }

 /* TX header is consumed by HW on the way so we shouldn't count its
 * bytes as being sent.
 */

 len = skb->len - MLXSW_TXHDR_LEN;

 /* Due to a race we might fail here because of a full queue. In that
 * unlikely case we simply drop the packet.
 */

 err = mlxsw_core_skb_transmit(mlxsw_sp->core, skb, &txhdr_info);

 if (!err) {
  pcpu_stats = this_cpu_ptr(mlxsw_sp_port->pcpu_stats);
  u64_stats_update_begin(&pcpu_stats->syncp);
  pcpu_stats->tx_packets++;
  pcpu_stats->tx_bytes += len;
  u64_stats_update_end(&pcpu_stats->syncp);
 } else {
  this_cpu_inc(mlxsw_sp_port->pcpu_stats->tx_dropped);
  dev_kfree_skb_any(skb);
 }
 return NETDEV_TX_OK;
}

static void mlxsw_sp_set_rx_mode(struct net_device *dev)
{
}

static int mlxsw_sp_port_set_mac_address(struct net_device *dev, void *p)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct sockaddr *addr = p;
 int err;

 if (!is_valid_ether_addr(addr->sa_data))
  return -EADDRNOTAVAIL;

 err = mlxsw_sp_port_dev_addr_set(mlxsw_sp_port, addr->sa_data);
 if (err)
  return err;
 eth_hw_addr_set(dev, addr->sa_data);
 return 0;
}

static int mlxsw_sp_port_change_mtu(struct net_device *dev, int mtu)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp_hdroom orig_hdroom;
 struct mlxsw_sp_hdroom hdroom;
 int err;

 orig_hdroom = *mlxsw_sp_port->hdroom;

 hdroom = orig_hdroom;
 hdroom.mtu = mtu;
 mlxsw_sp_hdroom_bufs_reset_sizes(mlxsw_sp_port, &hdroom);

 err = mlxsw_sp_hdroom_configure(mlxsw_sp_port, &hdroom);
 if (err) {
  netdev_err(dev, "Failed to configure port's headroom\n");
  return err;
 }

 err = mlxsw_sp_port_mtu_set(mlxsw_sp_port, mtu);
 if (err)
  goto err_port_mtu_set;
 WRITE_ONCE(dev->mtu, mtu);
 return 0;

err_port_mtu_set:
 mlxsw_sp_hdroom_configure(mlxsw_sp_port, &orig_hdroom);
 return err;
}

static int
mlxsw_sp_port_get_sw_stats64(const struct net_device *dev,
        struct rtnl_link_stats64 *stats)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp_port_pcpu_stats *p;
 u64 rx_packets, rx_bytes, tx_packets, tx_bytes;
 u32 tx_dropped = 0;
 unsigned int start;
 int i;

 for_each_possible_cpu(i) {
  p = per_cpu_ptr(mlxsw_sp_port->pcpu_stats, i);
  do {
   start = u64_stats_fetch_begin(&p->syncp);
   rx_packets = p->rx_packets;
   rx_bytes = p->rx_bytes;
   tx_packets = p->tx_packets;
   tx_bytes = p->tx_bytes;
  } while (u64_stats_fetch_retry(&p->syncp, start));

  stats->rx_packets += rx_packets;
  stats->rx_bytes  += rx_bytes;
  stats->tx_packets += tx_packets;
  stats->tx_bytes  += tx_bytes;
  /* tx_dropped is u32, updated without syncp protection. */
  tx_dropped += p->tx_dropped;
 }
 stats->tx_dropped = tx_dropped;
 return 0;
}

static bool mlxsw_sp_port_has_offload_stats(const struct net_device *dev, int attr_id)
{
 switch (attr_id) {
 case IFLA_OFFLOAD_XSTATS_CPU_HIT:
  return true;
 }

 return false;
}

static int mlxsw_sp_port_get_offload_stats(int attr_id, const struct net_device *dev,
        void *sp)
{
 switch (attr_id) {
 case IFLA_OFFLOAD_XSTATS_CPU_HIT:
  return mlxsw_sp_port_get_sw_stats64(dev, sp);
 }

 return -EINVAL;
}

int mlxsw_sp_port_get_stats_raw(struct net_device *dev, int grp,
    int prio, char *ppcnt_pl)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;

 mlxsw_reg_ppcnt_pack(ppcnt_pl, mlxsw_sp_port->local_port, grp, prio);
 return mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(ppcnt), ppcnt_pl);
}

static int mlxsw_sp_port_get_hw_stats(struct net_device *dev,
          struct rtnl_link_stats64 *stats)
{
 char ppcnt_pl[MLXSW_REG_PPCNT_LEN];
 int err;

 err = mlxsw_sp_port_get_stats_raw(dev, MLXSW_REG_PPCNT_IEEE_8023_CNT,
       0, ppcnt_pl);
 if (err)
  goto out;

 stats->tx_packets =
  mlxsw_reg_ppcnt_a_frames_transmitted_ok_get(ppcnt_pl);
 stats->rx_packets =
  mlxsw_reg_ppcnt_a_frames_received_ok_get(ppcnt_pl);
 stats->tx_bytes =
  mlxsw_reg_ppcnt_a_octets_transmitted_ok_get(ppcnt_pl);
 stats->rx_bytes =
  mlxsw_reg_ppcnt_a_octets_received_ok_get(ppcnt_pl);
 stats->multicast =
  mlxsw_reg_ppcnt_a_multicast_frames_received_ok_get(ppcnt_pl);

 stats->rx_crc_errors =
  mlxsw_reg_ppcnt_a_frame_check_sequence_errors_get(ppcnt_pl);
 stats->rx_frame_errors =
  mlxsw_reg_ppcnt_a_alignment_errors_get(ppcnt_pl);

 stats->rx_length_errors = (
  mlxsw_reg_ppcnt_a_in_range_length_errors_get(ppcnt_pl) +
  mlxsw_reg_ppcnt_a_out_of_range_length_field_get(ppcnt_pl) +
  mlxsw_reg_ppcnt_a_frame_too_long_errors_get(ppcnt_pl));

 stats->rx_errors = (stats->rx_crc_errors +
  stats->rx_frame_errors + stats->rx_length_errors);

out:
 return err;
}

static void
mlxsw_sp_port_get_hw_xstats(struct net_device *dev,
       struct mlxsw_sp_port_xstats *xstats)
{
 char ppcnt_pl[MLXSW_REG_PPCNT_LEN];
 int err, i;

 err = mlxsw_sp_port_get_stats_raw(dev, MLXSW_REG_PPCNT_EXT_CNT, 0,
       ppcnt_pl);
 if (!err)
  xstats->ecn = mlxsw_reg_ppcnt_ecn_marked_get(ppcnt_pl);

 for (i = 0; i < TC_MAX_QUEUE; i++) {
  err = mlxsw_sp_port_get_stats_raw(dev,
        MLXSW_REG_PPCNT_TC_CONG_CNT,
        i, ppcnt_pl);
  if (err)
   goto tc_cnt;

  xstats->wred_drop[i] =
   mlxsw_reg_ppcnt_wred_discard_get(ppcnt_pl);
  xstats->tc_ecn[i] = mlxsw_reg_ppcnt_ecn_marked_tc_get(ppcnt_pl);

tc_cnt:
  err = mlxsw_sp_port_get_stats_raw(dev, MLXSW_REG_PPCNT_TC_CNT,
        i, ppcnt_pl);
  if (err)
   continue;

  xstats->backlog[i] =
   mlxsw_reg_ppcnt_tc_transmit_queue_get(ppcnt_pl);
  xstats->tail_drop[i] =
   mlxsw_reg_ppcnt_tc_no_buffer_discard_uc_get(ppcnt_pl);
 }

 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_get_stats_raw(dev, MLXSW_REG_PPCNT_PRIO_CNT,
        i, ppcnt_pl);
  if (err)
   continue;

  xstats->tx_packets[i] = mlxsw_reg_ppcnt_tx_frames_get(ppcnt_pl);
  xstats->tx_bytes[i] = mlxsw_reg_ppcnt_tx_octets_get(ppcnt_pl);
 }
}

static void update_stats_cache(struct work_struct *work)
{
 struct mlxsw_sp_port *mlxsw_sp_port =
  container_of(work, struct mlxsw_sp_port,
        periodic_hw_stats.update_dw.work);

 if (!netif_carrier_ok(mlxsw_sp_port->dev))
  /* Note: mlxsw_sp_port_down_wipe_counters() clears the cache as
 * necessary when port goes down.
 */

  goto out;

 mlxsw_sp_port_get_hw_stats(mlxsw_sp_port->dev,
       &mlxsw_sp_port->periodic_hw_stats.stats);
 mlxsw_sp_port_get_hw_xstats(mlxsw_sp_port->dev,
        &mlxsw_sp_port->periodic_hw_stats.xstats);

out:
 mlxsw_core_schedule_dw(&mlxsw_sp_port->periodic_hw_stats.update_dw,
          MLXSW_HW_STATS_UPDATE_TIME);
}

/* Return the stats from a cache that is updated periodically,
 * as this function might get called in an atomic context.
 */

static void
mlxsw_sp_port_get_stats64(struct net_device *dev,
     struct rtnl_link_stats64 *stats)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 memcpy(stats, &mlxsw_sp_port->periodic_hw_stats.stats, sizeof(*stats));
}

static int __mlxsw_sp_port_vlan_set(struct mlxsw_sp_port *mlxsw_sp_port,
        u16 vid_begin, u16 vid_end,
        bool is_member, bool untagged)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char *spvm_pl;
 int err;

 spvm_pl = kmalloc(MLXSW_REG_SPVM_LEN, GFP_KERNEL);
 if (!spvm_pl)
  return -ENOMEM;

 mlxsw_reg_spvm_pack(spvm_pl, mlxsw_sp_port->local_port, vid_begin,
       vid_end, is_member, untagged);
 err = mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spvm), spvm_pl);
 kfree(spvm_pl);
 return err;
}

int mlxsw_sp_port_vlan_set(struct mlxsw_sp_port *mlxsw_sp_port, u16 vid_begin,
      u16 vid_end, bool is_member, bool untagged)
{
 u16 vid, vid_e;
 int err;

 for (vid = vid_begin; vid <= vid_end;
      vid += MLXSW_REG_SPVM_REC_MAX_COUNT) {
  vid_e = min((u16) (vid + MLXSW_REG_SPVM_REC_MAX_COUNT - 1),
       vid_end);

  err = __mlxsw_sp_port_vlan_set(mlxsw_sp_port, vid, vid_e,
            is_member, untagged);
  if (err)
   return err;
 }

 return 0;
}

static void mlxsw_sp_port_vlan_flush(struct mlxsw_sp_port *mlxsw_sp_port,
         bool flush_default)
{
 struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan, *tmp;

 list_for_each_entry_safe(mlxsw_sp_port_vlan, tmp,
     &mlxsw_sp_port->vlans_list, list) {
  if (!flush_default &&
      mlxsw_sp_port_vlan->vid == MLXSW_SP_DEFAULT_VID)
   continue;
  mlxsw_sp_port_vlan_destroy(mlxsw_sp_port_vlan);
 }
}

static void
mlxsw_sp_port_vlan_cleanup(struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan)
{
 if (mlxsw_sp_port_vlan->bridge_port)
  mlxsw_sp_port_vlan_bridge_leave(mlxsw_sp_port_vlan);
 else if (mlxsw_sp_port_vlan->fid)
  mlxsw_sp_port_vlan_router_leave(mlxsw_sp_port_vlan);
}

struct mlxsw_sp_port_vlan *
mlxsw_sp_port_vlan_create(struct mlxsw_sp_port *mlxsw_sp_port, u16 vid)
{
 struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan;
 bool untagged = vid == MLXSW_SP_DEFAULT_VID;
 int err;

 mlxsw_sp_port_vlan = mlxsw_sp_port_vlan_find_by_vid(mlxsw_sp_port, vid);
 if (mlxsw_sp_port_vlan)
  return ERR_PTR(-EEXIST);

 err = mlxsw_sp_port_vlan_set(mlxsw_sp_port, vid, vid, true, untagged);
 if (err)
  return ERR_PTR(err);

 mlxsw_sp_port_vlan = kzalloc(sizeof(*mlxsw_sp_port_vlan), GFP_KERNEL);
 if (!mlxsw_sp_port_vlan) {
  err = -ENOMEM;
  goto err_port_vlan_alloc;
 }

 mlxsw_sp_port_vlan->mlxsw_sp_port = mlxsw_sp_port;
 mlxsw_sp_port_vlan->vid = vid;
 list_add(&mlxsw_sp_port_vlan->list, &mlxsw_sp_port->vlans_list);

 return mlxsw_sp_port_vlan;

err_port_vlan_alloc:
 mlxsw_sp_port_vlan_set(mlxsw_sp_port, vid, vid, falsefalse);
 return ERR_PTR(err);
}

void mlxsw_sp_port_vlan_destroy(struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan)
{
 struct mlxsw_sp_port *mlxsw_sp_port = mlxsw_sp_port_vlan->mlxsw_sp_port;
 u16 vid = mlxsw_sp_port_vlan->vid;

 mlxsw_sp_port_vlan_cleanup(mlxsw_sp_port_vlan);
 list_del(&mlxsw_sp_port_vlan->list);
 kfree(mlxsw_sp_port_vlan);
 mlxsw_sp_port_vlan_set(mlxsw_sp_port, vid, vid, falsefalse);
}

static int mlxsw_sp_port_add_vid(struct net_device *dev,
     __be16 __always_unused proto, u16 vid)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 /* VLAN 0 is added to HW filter when device goes up, but it is
 * reserved in our case, so simply return.
 */

 if (!vid)
  return 0;

 return PTR_ERR_OR_ZERO(mlxsw_sp_port_vlan_create(mlxsw_sp_port, vid));
}

int mlxsw_sp_port_kill_vid(struct net_device *dev,
      __be16 __always_unused proto, u16 vid)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan;

 /* VLAN 0 is removed from HW filter when device goes down, but
 * it is reserved in our case, so simply return.
 */

 if (!vid)
  return 0;

 mlxsw_sp_port_vlan = mlxsw_sp_port_vlan_find_by_vid(mlxsw_sp_port, vid);
 if (!mlxsw_sp_port_vlan)
  return 0;
 mlxsw_sp_port_vlan_destroy(mlxsw_sp_port_vlan);

 return 0;
}

static int mlxsw_sp_setup_tc_block(struct mlxsw_sp_port *mlxsw_sp_port,
       struct flow_block_offload *f)
{
 switch (f->binder_type) {
 case FLOW_BLOCK_BINDER_TYPE_CLSACT_INGRESS:
  return mlxsw_sp_setup_tc_block_clsact(mlxsw_sp_port, f, true);
 case FLOW_BLOCK_BINDER_TYPE_CLSACT_EGRESS:
  return mlxsw_sp_setup_tc_block_clsact(mlxsw_sp_port, f, false);
 case FLOW_BLOCK_BINDER_TYPE_RED_EARLY_DROP:
  return mlxsw_sp_setup_tc_block_qevent_early_drop(mlxsw_sp_port, f);
 case FLOW_BLOCK_BINDER_TYPE_RED_MARK:
  return mlxsw_sp_setup_tc_block_qevent_mark(mlxsw_sp_port, f);
 default:
  return -EOPNOTSUPP;
 }
}

static int mlxsw_sp_setup_tc(struct net_device *dev, enum tc_setup_type type,
        void *type_data)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 switch (type) {
 case TC_SETUP_BLOCK:
  return mlxsw_sp_setup_tc_block(mlxsw_sp_port, type_data);
 case TC_SETUP_QDISC_RED:
  return mlxsw_sp_setup_tc_red(mlxsw_sp_port, type_data);
 case TC_SETUP_QDISC_PRIO:
  return mlxsw_sp_setup_tc_prio(mlxsw_sp_port, type_data);
 case TC_SETUP_QDISC_ETS:
  return mlxsw_sp_setup_tc_ets(mlxsw_sp_port, type_data);
 case TC_SETUP_QDISC_TBF:
  return mlxsw_sp_setup_tc_tbf(mlxsw_sp_port, type_data);
 case TC_SETUP_QDISC_FIFO:
  return mlxsw_sp_setup_tc_fifo(mlxsw_sp_port, type_data);
 default:
  return -EOPNOTSUPP;
 }
}

static int mlxsw_sp_feature_hw_tc(struct net_device *dev, bool enable)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 if (!enable) {
  if (mlxsw_sp_flow_block_rule_count(mlxsw_sp_port->ing_flow_block) ||
      mlxsw_sp_flow_block_rule_count(mlxsw_sp_port->eg_flow_block)) {
   netdev_err(dev, "Active offloaded tc filters, can't turn hw_tc_offload off\n");
   return -EINVAL;
  }
  mlxsw_sp_flow_block_disable_inc(mlxsw_sp_port->ing_flow_block);
  mlxsw_sp_flow_block_disable_inc(mlxsw_sp_port->eg_flow_block);
 } else {
  mlxsw_sp_flow_block_disable_dec(mlxsw_sp_port->ing_flow_block);
  mlxsw_sp_flow_block_disable_dec(mlxsw_sp_port->eg_flow_block);
 }
 return 0;
}

static int mlxsw_sp_feature_loopback(struct net_device *dev, bool enable)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);
 char pplr_pl[MLXSW_REG_PPLR_LEN];
 int err;

 if (netif_running(dev))
  mlxsw_sp_port_admin_status_set(mlxsw_sp_port, false);

 mlxsw_reg_pplr_pack(pplr_pl, mlxsw_sp_port->local_port, enable);
 err = mlxsw_reg_write(mlxsw_sp_port->mlxsw_sp->core, MLXSW_REG(pplr),
         pplr_pl);

 if (netif_running(dev))
  mlxsw_sp_port_admin_status_set(mlxsw_sp_port, true);

 return err;
}

typedef int (*mlxsw_sp_feature_handler)(struct net_device *dev, bool enable);

static int mlxsw_sp_handle_feature(struct net_device *dev,
       netdev_features_t wanted_features,
       netdev_features_t feature,
       mlxsw_sp_feature_handler feature_handler)
{
 netdev_features_t changes = wanted_features ^ dev->features;
 bool enable = !!(wanted_features & feature);
 int err;

 if (!(changes & feature))
  return 0;

 err = feature_handler(dev, enable);
 if (err) {
  netdev_err(dev, "%s feature %pNF failed, err %d\n",
      enable ? "Enable" : "Disable", &feature, err);
  return err;
 }

 if (enable)
  dev->features |= feature;
 else
  dev->features &= ~feature;

 return 0;
}
static int mlxsw_sp_set_features(struct net_device *dev,
     netdev_features_t features)
{
 netdev_features_t oper_features = dev->features;
 int err = 0;

 err |= mlxsw_sp_handle_feature(dev, features, NETIF_F_HW_TC,
           mlxsw_sp_feature_hw_tc);
 err |= mlxsw_sp_handle_feature(dev, features, NETIF_F_LOOPBACK,
           mlxsw_sp_feature_loopback);

 if (err) {
  dev->features = oper_features;
  return -EINVAL;
 }

 return 0;
}

static int mlxsw_sp_port_hwtstamp_set(struct net_device *dev,
          struct kernel_hwtstamp_config *config,
          struct netlink_ext_ack *extack)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 return mlxsw_sp_port->mlxsw_sp->ptp_ops->hwtstamp_set(mlxsw_sp_port,
             config, extack);
}

static int mlxsw_sp_port_hwtstamp_get(struct net_device *dev,
          struct kernel_hwtstamp_config *config)
{
 struct mlxsw_sp_port *mlxsw_sp_port = netdev_priv(dev);

 return mlxsw_sp_port->mlxsw_sp->ptp_ops->hwtstamp_get(mlxsw_sp_port,
             config);
}

static inline void mlxsw_sp_port_ptp_clear(struct mlxsw_sp_port *mlxsw_sp_port)
{
 struct kernel_hwtstamp_config config = {};

 mlxsw_sp_port->mlxsw_sp->ptp_ops->hwtstamp_set(mlxsw_sp_port, &config,
             NULL);
}

static const struct net_device_ops mlxsw_sp_port_netdev_ops = {
 .ndo_open  = mlxsw_sp_port_open,
 .ndo_stop  = mlxsw_sp_port_stop,
 .ndo_start_xmit  = mlxsw_sp_port_xmit,
 .ndo_setup_tc           = mlxsw_sp_setup_tc,
 .ndo_set_rx_mode = mlxsw_sp_set_rx_mode,
 .ndo_set_mac_address = mlxsw_sp_port_set_mac_address,
 .ndo_change_mtu  = mlxsw_sp_port_change_mtu,
 .ndo_get_stats64 = mlxsw_sp_port_get_stats64,
 .ndo_has_offload_stats = mlxsw_sp_port_has_offload_stats,
 .ndo_get_offload_stats = mlxsw_sp_port_get_offload_stats,
 .ndo_vlan_rx_add_vid = mlxsw_sp_port_add_vid,
 .ndo_vlan_rx_kill_vid = mlxsw_sp_port_kill_vid,
 .ndo_set_features = mlxsw_sp_set_features,
 .ndo_hwtstamp_get = mlxsw_sp_port_hwtstamp_get,
 .ndo_hwtstamp_set = mlxsw_sp_port_hwtstamp_set,
};

static int
mlxsw_sp_port_speed_by_width_set(struct mlxsw_sp_port *mlxsw_sp_port)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 u32 eth_proto_cap, eth_proto_admin, eth_proto_oper;
 const struct mlxsw_sp_port_type_speed_ops *ops;
 char ptys_pl[MLXSW_REG_PTYS_LEN];
 u32 eth_proto_cap_masked;
 int err;

 ops = mlxsw_sp->port_type_speed_ops;

 /* Set advertised speeds to speeds supported by both the driver
 * and the device.
 */

 ops->reg_ptys_eth_pack(mlxsw_sp, ptys_pl, mlxsw_sp_port->local_port,
          0, false);
 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(ptys), ptys_pl);
 if (err)
  return err;

 ops->reg_ptys_eth_unpack(mlxsw_sp, ptys_pl, ð_proto_cap,
     ð_proto_admin, ð_proto_oper);
 eth_proto_cap_masked = ops->ptys_proto_cap_masked_get(eth_proto_cap);
 ops->reg_ptys_eth_pack(mlxsw_sp, ptys_pl, mlxsw_sp_port->local_port,
          eth_proto_cap_masked,
          mlxsw_sp_port->link.autoneg);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(ptys), ptys_pl);
}

int mlxsw_sp_port_speed_get(struct mlxsw_sp_port *mlxsw_sp_port, u32 *speed)
{
 const struct mlxsw_sp_port_type_speed_ops *port_type_speed_ops;
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char ptys_pl[MLXSW_REG_PTYS_LEN];
 u32 eth_proto_oper;
 int err;

 port_type_speed_ops = mlxsw_sp->port_type_speed_ops;
 port_type_speed_ops->reg_ptys_eth_pack(mlxsw_sp, ptys_pl,
            mlxsw_sp_port->local_port, 0,
            false);
 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(ptys), ptys_pl);
 if (err)
  return err;
 port_type_speed_ops->reg_ptys_eth_unpack(mlxsw_sp, ptys_pl, NULL, NULL,
       ð_proto_oper);
 *speed = port_type_speed_ops->from_ptys_speed(mlxsw_sp, eth_proto_oper);
 return 0;
}

int mlxsw_sp_port_ets_set(struct mlxsw_sp_port *mlxsw_sp_port,
     enum mlxsw_reg_qeec_hr hr, u8 index, u8 next_index,
     bool dwrr, u8 dwrr_weight)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char qeec_pl[MLXSW_REG_QEEC_LEN];

 mlxsw_reg_qeec_pack(qeec_pl, mlxsw_sp_port->local_port, hr, index,
       next_index);
 mlxsw_reg_qeec_de_set(qeec_pl, true);
 mlxsw_reg_qeec_dwrr_set(qeec_pl, dwrr);
 mlxsw_reg_qeec_dwrr_weight_set(qeec_pl, dwrr_weight);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(qeec), qeec_pl);
}

int mlxsw_sp_port_ets_maxrate_set(struct mlxsw_sp_port *mlxsw_sp_port,
      enum mlxsw_reg_qeec_hr hr, u8 index,
      u8 next_index, u32 maxrate, u8 burst_size)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char qeec_pl[MLXSW_REG_QEEC_LEN];

 mlxsw_reg_qeec_pack(qeec_pl, mlxsw_sp_port->local_port, hr, index,
       next_index);
 mlxsw_reg_qeec_mase_set(qeec_pl, true);
 mlxsw_reg_qeec_max_shaper_rate_set(qeec_pl, maxrate);
 mlxsw_reg_qeec_max_shaper_bs_set(qeec_pl, burst_size);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(qeec), qeec_pl);
}

static int mlxsw_sp_port_min_bw_set(struct mlxsw_sp_port *mlxsw_sp_port,
        enum mlxsw_reg_qeec_hr hr, u8 index,
        u8 next_index, u32 minrate)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char qeec_pl[MLXSW_REG_QEEC_LEN];

 mlxsw_reg_qeec_pack(qeec_pl, mlxsw_sp_port->local_port, hr, index,
       next_index);
 mlxsw_reg_qeec_mise_set(qeec_pl, true);
 mlxsw_reg_qeec_min_shaper_rate_set(qeec_pl, minrate);

 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(qeec), qeec_pl);
}

int mlxsw_sp_port_prio_tc_set(struct mlxsw_sp_port *mlxsw_sp_port,
         u8 switch_prio, u8 tclass)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char qtct_pl[MLXSW_REG_QTCT_LEN];

 mlxsw_reg_qtct_pack(qtct_pl, mlxsw_sp_port->local_port, switch_prio,
       tclass);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(qtct), qtct_pl);
}

static int mlxsw_sp_port_ets_init(struct mlxsw_sp_port *mlxsw_sp_port)
{
 int err, i;

 /* Setup the elements hierarcy, so that each TC is linked to
 * one subgroup, which are all member in the same group.
 */

 err = mlxsw_sp_port_ets_set(mlxsw_sp_port,
        MLXSW_REG_QEEC_HR_GROUP, 0, 0, false, 0);
 if (err)
  return err;
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_ets_set(mlxsw_sp_port,
         MLXSW_REG_QEEC_HR_SUBGROUP, i,
         0, false, 0);
  if (err)
   return err;
 }
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_ets_set(mlxsw_sp_port,
         MLXSW_REG_QEEC_HR_TC, i, i,
         false, 0);
  if (err)
   return err;

  err = mlxsw_sp_port_ets_set(mlxsw_sp_port,
         MLXSW_REG_QEEC_HR_TC,
         i + 8, i,
         true, 100);
  if (err)
   return err;
 }

 /* Make sure the max shaper is disabled in all hierarchies that support
 * it. Note that this disables ptps (PTP shaper), but that is intended
 * for the initial configuration.
 */

 err = mlxsw_sp_port_ets_maxrate_set(mlxsw_sp_port,
         MLXSW_REG_QEEC_HR_PORT, 0, 0,
         MLXSW_REG_QEEC_MAS_DIS, 0);
 if (err)
  return err;
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_ets_maxrate_set(mlxsw_sp_port,
          MLXSW_REG_QEEC_HR_SUBGROUP,
          i, 0,
          MLXSW_REG_QEEC_MAS_DIS, 0);
  if (err)
   return err;
 }
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_ets_maxrate_set(mlxsw_sp_port,
          MLXSW_REG_QEEC_HR_TC,
          i, i,
          MLXSW_REG_QEEC_MAS_DIS, 0);
  if (err)
   return err;

  err = mlxsw_sp_port_ets_maxrate_set(mlxsw_sp_port,
          MLXSW_REG_QEEC_HR_TC,
          i + 8, i,
          MLXSW_REG_QEEC_MAS_DIS, 0);
  if (err)
   return err;
 }

 /* Configure the min shaper for multicast TCs. */
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_min_bw_set(mlxsw_sp_port,
            MLXSW_REG_QEEC_HR_TC,
            i + 8, i,
            MLXSW_REG_QEEC_MIS_MIN);
  if (err)
   return err;
 }

 /* Map all priorities to traffic class 0. */
 for (i = 0; i < IEEE_8021QAZ_MAX_TCS; i++) {
  err = mlxsw_sp_port_prio_tc_set(mlxsw_sp_port, i, 0);
  if (err)
   return err;
 }

 return 0;
}

static int mlxsw_sp_port_tc_mc_mode_set(struct mlxsw_sp_port *mlxsw_sp_port,
     bool enable)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char qtctm_pl[MLXSW_REG_QTCTM_LEN];

 mlxsw_reg_qtctm_pack(qtctm_pl, mlxsw_sp_port->local_port, enable);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(qtctm), qtctm_pl);
}

static int mlxsw_sp_port_overheat_init_val_set(struct mlxsw_sp_port *mlxsw_sp_port)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 u8 slot_index = mlxsw_sp_port->mapping.slot_index;
 u8 module = mlxsw_sp_port->mapping.module;
 u64 overheat_counter;
 int err;

 err = mlxsw_env_module_overheat_counter_get(mlxsw_sp->core, slot_index,
          module, &overheat_counter);
 if (err)
  return err;

 mlxsw_sp_port->module_overheat_initial_val = overheat_counter;
 return 0;
}

int
mlxsw_sp_port_vlan_classification_set(struct mlxsw_sp_port *mlxsw_sp_port,
          bool is_8021ad_tagged,
          bool is_8021q_tagged)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_sp_port->mlxsw_sp;
 char spvc_pl[MLXSW_REG_SPVC_LEN];

 mlxsw_reg_spvc_pack(spvc_pl, mlxsw_sp_port->local_port,
       is_8021ad_tagged, is_8021q_tagged);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(spvc), spvc_pl);
}

static int mlxsw_sp_port_label_info_get(struct mlxsw_sp *mlxsw_sp,
     u16 local_port, u8 *port_number,
     u8 *split_port_subnumber,
     u8 *slot_index)
{
 char pllp_pl[MLXSW_REG_PLLP_LEN];
 int err;

 mlxsw_reg_pllp_pack(pllp_pl, local_port);
 err = mlxsw_reg_query(mlxsw_sp->core, MLXSW_REG(pllp), pllp_pl);
 if (err)
  return err;
 mlxsw_reg_pllp_unpack(pllp_pl, port_number,
         split_port_subnumber, slot_index);
 return 0;
}

static int mlxsw_sp_port_create(struct mlxsw_sp *mlxsw_sp, u16 local_port,
    bool split,
    struct mlxsw_sp_port_mapping *port_mapping)
{
 struct mlxsw_sp_port_vlan *mlxsw_sp_port_vlan;
 struct mlxsw_sp_port *mlxsw_sp_port;
 u32 lanes = port_mapping->width;
 u8 split_port_subnumber;
 struct net_device *dev;
 u8 port_number;
 u8 slot_index;
 bool splittable;
 int err;

 err = mlxsw_sp_port_module_map(mlxsw_sp, local_port, port_mapping);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to map module\n",
   local_port);
  return err;
 }

 err = mlxsw_sp_port_swid_set(mlxsw_sp, local_port, 0);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set SWID\n",
   local_port);
  goto err_port_swid_set;
 }

 err = mlxsw_sp_port_label_info_get(mlxsw_sp, local_port, &port_number,
        &split_port_subnumber, &slot_index);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to get port label information\n",
   local_port);
  goto err_port_label_info_get;
 }

 splittable = lanes > 1 && !split;
 err = mlxsw_core_port_init(mlxsw_sp->core, local_port, slot_index,
       port_number, split, split_port_subnumber,
       splittable, lanes, mlxsw_sp->base_mac,
       sizeof(mlxsw_sp->base_mac));
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to init core port\n",
   local_port);
  goto err_core_port_init;
 }

 dev = alloc_etherdev(sizeof(struct mlxsw_sp_port));
 if (!dev) {
  err = -ENOMEM;
  goto err_alloc_etherdev;
 }
 SET_NETDEV_DEV(dev, mlxsw_sp->bus_info->dev);
 dev_net_set(dev, mlxsw_sp_net(mlxsw_sp));
 mlxsw_sp_port = netdev_priv(dev);
 mlxsw_core_port_netdev_link(mlxsw_sp->core, local_port,
        mlxsw_sp_port, dev);
 mlxsw_sp_port->dev = dev;
 mlxsw_sp_port->mlxsw_sp = mlxsw_sp;
 mlxsw_sp_port->local_port = local_port;
 mlxsw_sp_port->pvid = MLXSW_SP_DEFAULT_VID;
 mlxsw_sp_port->split = split;
 mlxsw_sp_port->mapping = *port_mapping;
 mlxsw_sp_port->link.autoneg = 1;
 INIT_LIST_HEAD(&mlxsw_sp_port->vlans_list);

 mlxsw_sp_port->pcpu_stats =
  netdev_alloc_pcpu_stats(struct mlxsw_sp_port_pcpu_stats);
 if (!mlxsw_sp_port->pcpu_stats) {
  err = -ENOMEM;
  goto err_alloc_stats;
 }

 INIT_DELAYED_WORK(&mlxsw_sp_port->periodic_hw_stats.update_dw,
     &update_stats_cache);

 dev->netdev_ops = &mlxsw_sp_port_netdev_ops;
 dev->ethtool_ops = &mlxsw_sp_port_ethtool_ops;

 err = mlxsw_sp_port_dev_addr_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Unable to init port mac address\n",
   mlxsw_sp_port->local_port);
  goto err_dev_addr_init;
 }

 netif_carrier_off(dev);

 dev->features |= NETIF_F_SG | NETIF_F_HW_VLAN_CTAG_FILTER |
    NETIF_F_HW_TC | NETIF_F_IP_CSUM | NETIF_F_IPV6_CSUM;
 dev->hw_features |= NETIF_F_HW_TC | NETIF_F_LOOPBACK |
       NETIF_F_IP_CSUM | NETIF_F_IPV6_CSUM;
 dev->vlan_features |= NETIF_F_IP_CSUM | NETIF_F_IPV6_CSUM;
 dev->lltx = true;
 dev->netns_immutable = true;

 dev->min_mtu = ETH_MIN_MTU;
 dev->max_mtu = MLXSW_PORT_MAX_MTU - MLXSW_PORT_ETH_FRAME_HDR;

 /* Each packet needs to have a Tx header (metadata) on top all other
 * headers.
 */

 dev->needed_headroom = MLXSW_TXHDR_LEN;

 err = mlxsw_sp_port_system_port_mapping_set(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set system port mapping\n",
   mlxsw_sp_port->local_port);
  goto err_port_system_port_mapping_set;
 }

 err = mlxsw_sp_port_speed_by_width_set(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to enable speeds\n",
   mlxsw_sp_port->local_port);
  goto err_port_speed_by_width_set;
 }

 err = mlxsw_sp->port_type_speed_ops->ptys_max_speed(mlxsw_sp_port,
           &mlxsw_sp_port->max_speed);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to get maximum speed\n",
   mlxsw_sp_port->local_port);
  goto err_max_speed_get;
 }

 err = mlxsw_sp_port_mtu_set(mlxsw_sp_port, ETH_DATA_LEN);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set MTU\n",
   mlxsw_sp_port->local_port);
  goto err_port_mtu_set;
 }

 err = mlxsw_sp_port_admin_status_set(mlxsw_sp_port, false);
 if (err)
  goto err_port_admin_status_set;

 err = mlxsw_sp_port_buffers_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize buffers\n",
   mlxsw_sp_port->local_port);
  goto err_port_buffers_init;
 }

 err = mlxsw_sp_port_ets_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize ETS\n",
   mlxsw_sp_port->local_port);
  goto err_port_ets_init;
 }

 err = mlxsw_sp_port_tc_mc_mode_set(mlxsw_sp_port, true);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize TC MC mode\n",
   mlxsw_sp_port->local_port);
  goto err_port_tc_mc_mode;
 }

 /* ETS and buffers must be initialized before DCB. */
 err = mlxsw_sp_port_dcb_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize DCB\n",
   mlxsw_sp_port->local_port);
  goto err_port_dcb_init;
 }

 err = mlxsw_sp_port_fids_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize FIDs\n",
   mlxsw_sp_port->local_port);
  goto err_port_fids_init;
 }

 err = mlxsw_sp_tc_qdisc_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize TC qdiscs\n",
   mlxsw_sp_port->local_port);
  goto err_port_qdiscs_init;
 }

 err = mlxsw_sp_port_vlan_set(mlxsw_sp_port, 0, VLAN_N_VID - 1, false,
         false);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to clear VLAN filter\n",
   mlxsw_sp_port->local_port);
  goto err_port_vlan_clear;
 }

 err = mlxsw_sp_port_nve_init(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to initialize NVE\n",
   mlxsw_sp_port->local_port);
  goto err_port_nve_init;
 }

 err = mlxsw_sp_port_pvid_set(mlxsw_sp_port, MLXSW_SP_DEFAULT_VID,
         ETH_P_8021Q);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set PVID\n",
   mlxsw_sp_port->local_port);
  goto err_port_pvid_set;
 }

 mlxsw_sp_port_vlan = mlxsw_sp_port_vlan_create(mlxsw_sp_port,
             MLXSW_SP_DEFAULT_VID);
 if (IS_ERR(mlxsw_sp_port_vlan)) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to create VID 1\n",
   mlxsw_sp_port->local_port);
  err = PTR_ERR(mlxsw_sp_port_vlan);
  goto err_port_vlan_create;
 }
 mlxsw_sp_port->default_vlan = mlxsw_sp_port_vlan;

 /* Set SPVC.et0=true and SPVC.et1=false to make the local port to treat
 * only packets with 802.1q header as tagged packets.
 */

 err = mlxsw_sp_port_vlan_classification_set(mlxsw_sp_port, falsetrue);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set default VLAN classification\n",
   local_port);
  goto err_port_vlan_classification_set;
 }

 INIT_DELAYED_WORK(&mlxsw_sp_port->ptp.shaper_dw,
     mlxsw_sp->ptp_ops->shaper_work);

 mlxsw_sp->ports[local_port] = mlxsw_sp_port;

 err = mlxsw_sp_port_overheat_init_val_set(mlxsw_sp_port);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to set overheat initial value\n",
   mlxsw_sp_port->local_port);
  goto err_port_overheat_init_val_set;
 }

 err = register_netdev(dev);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Port %d: Failed to register netdev\n",
   mlxsw_sp_port->local_port);
  goto err_register_netdev;
 }

 mlxsw_core_schedule_dw(&mlxsw_sp_port->periodic_hw_stats.update_dw, 0);
 return 0;

err_register_netdev:
err_port_overheat_init_val_set:
 mlxsw_sp_port_vlan_classification_set(mlxsw_sp_port, truetrue);
err_port_vlan_classification_set:
 mlxsw_sp->ports[local_port] = NULL;
 mlxsw_sp_port_vlan_destroy(mlxsw_sp_port_vlan);
err_port_vlan_create:
err_port_pvid_set:
 mlxsw_sp_port_nve_fini(mlxsw_sp_port);
err_port_nve_init:
err_port_vlan_clear:
 mlxsw_sp_tc_qdisc_fini(mlxsw_sp_port);
err_port_qdiscs_init:
 mlxsw_sp_port_fids_fini(mlxsw_sp_port);
err_port_fids_init:
 mlxsw_sp_port_dcb_fini(mlxsw_sp_port);
err_port_dcb_init:
 mlxsw_sp_port_tc_mc_mode_set(mlxsw_sp_port, false);
err_port_tc_mc_mode:
err_port_ets_init:
 mlxsw_sp_port_buffers_fini(mlxsw_sp_port);
err_port_buffers_init:
err_port_admin_status_set:
err_port_mtu_set:
err_max_speed_get:
err_port_speed_by_width_set:
err_port_system_port_mapping_set:
err_dev_addr_init:
 free_percpu(mlxsw_sp_port->pcpu_stats);
err_alloc_stats:
 free_netdev(dev);
err_alloc_etherdev:
 mlxsw_core_port_fini(mlxsw_sp->core, local_port);
err_core_port_init:
err_port_label_info_get:
 mlxsw_sp_port_swid_set(mlxsw_sp, local_port,
          MLXSW_PORT_SWID_DISABLED_PORT);
err_port_swid_set:
 mlxsw_sp_port_module_unmap(mlxsw_sp, local_port,
       port_mapping->slot_index,
       port_mapping->module);
 return err;
}

static void mlxsw_sp_port_remove(struct mlxsw_sp *mlxsw_sp, u16 local_port)
{
 struct mlxsw_sp_port *mlxsw_sp_port = mlxsw_sp->ports[local_port];
 u8 slot_index = mlxsw_sp_port->mapping.slot_index;
 u8 module = mlxsw_sp_port->mapping.module;

 cancel_delayed_work_sync(&mlxsw_sp_port->periodic_hw_stats.update_dw);
 cancel_delayed_work_sync(&mlxsw_sp_port->ptp.shaper_dw);
 unregister_netdev(mlxsw_sp_port->dev); /* This calls ndo_stop */
 mlxsw_sp_port_ptp_clear(mlxsw_sp_port);
 mlxsw_sp_port_vlan_classification_set(mlxsw_sp_port, truetrue);
 mlxsw_sp->ports[local_port] = NULL;
 mlxsw_sp_port_vlan_flush(mlxsw_sp_port, true);
 mlxsw_sp_port_nve_fini(mlxsw_sp_port);
 mlxsw_sp_tc_qdisc_fini(mlxsw_sp_port);
 mlxsw_sp_port_fids_fini(mlxsw_sp_port);
 mlxsw_sp_port_dcb_fini(mlxsw_sp_port);
 mlxsw_sp_port_tc_mc_mode_set(mlxsw_sp_port, false);
 mlxsw_sp_port_buffers_fini(mlxsw_sp_port);
 free_percpu(mlxsw_sp_port->pcpu_stats);
 WARN_ON_ONCE(!list_empty(&mlxsw_sp_port->vlans_list));
 free_netdev(mlxsw_sp_port->dev);
 mlxsw_core_port_fini(mlxsw_sp->core, local_port);
 mlxsw_sp_port_swid_set(mlxsw_sp, local_port,
          MLXSW_PORT_SWID_DISABLED_PORT);
 mlxsw_sp_port_module_unmap(mlxsw_sp, local_port, slot_index, module);
}

static int mlxsw_sp_cpu_port_create(struct mlxsw_sp *mlxsw_sp)
{
 struct mlxsw_sp_port *mlxsw_sp_port;
 int err;

 mlxsw_sp_port = kzalloc(sizeof(*mlxsw_sp_port), GFP_KERNEL);
 if (!mlxsw_sp_port)
  return -ENOMEM;

 mlxsw_sp_port->mlxsw_sp = mlxsw_sp;
 mlxsw_sp_port->local_port = MLXSW_PORT_CPU_PORT;

 err = mlxsw_core_cpu_port_init(mlxsw_sp->core,
           mlxsw_sp_port,
           mlxsw_sp->base_mac,
           sizeof(mlxsw_sp->base_mac));
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Failed to initialize core CPU port\n");
  goto err_core_cpu_port_init;
 }

 mlxsw_sp->ports[MLXSW_PORT_CPU_PORT] = mlxsw_sp_port;
 return 0;

err_core_cpu_port_init:
 kfree(mlxsw_sp_port);
 return err;
}

static void mlxsw_sp_cpu_port_remove(struct mlxsw_sp *mlxsw_sp)
{
 struct mlxsw_sp_port *mlxsw_sp_port =
    mlxsw_sp->ports[MLXSW_PORT_CPU_PORT];

 mlxsw_core_cpu_port_fini(mlxsw_sp->core);
 mlxsw_sp->ports[MLXSW_PORT_CPU_PORT] = NULL;
 kfree(mlxsw_sp_port);
}

static bool mlxsw_sp_local_port_valid(u16 local_port)
{
 return local_port != MLXSW_PORT_CPU_PORT;
}

static bool mlxsw_sp_port_created(struct mlxsw_sp *mlxsw_sp, u16 local_port)
{
 if (!mlxsw_sp_local_port_valid(local_port))
  return false;
 return mlxsw_sp->ports[local_port] != NULL;
}

static int mlxsw_sp_port_mapping_event_set(struct mlxsw_sp *mlxsw_sp,
        u16 local_port, bool enable)
{
 char pmecr_pl[MLXSW_REG_PMECR_LEN];

 mlxsw_reg_pmecr_pack(pmecr_pl, local_port,
        enable ? MLXSW_REG_PMECR_E_GENERATE_EVENT :
          MLXSW_REG_PMECR_E_DO_NOT_GENERATE_EVENT);
 return mlxsw_reg_write(mlxsw_sp->core, MLXSW_REG(pmecr), pmecr_pl);
}

struct mlxsw_sp_port_mapping_event {
 struct list_head list;
 char pmlp_pl[MLXSW_REG_PMLP_LEN];
};

static void mlxsw_sp_port_mapping_events_work(struct work_struct *work)
{
 struct mlxsw_sp_port_mapping_event *event, *next_event;
 struct mlxsw_sp_port_mapping_events *events;
 struct mlxsw_sp_port_mapping port_mapping;
 struct mlxsw_sp *mlxsw_sp;
 struct devlink *devlink;
 LIST_HEAD(event_queue);
 u16 local_port;
 int err;

 events = container_of(work, struct mlxsw_sp_port_mapping_events, work);
 mlxsw_sp = container_of(events, struct mlxsw_sp, port_mapping_events);
 devlink = priv_to_devlink(mlxsw_sp->core);

 spin_lock_bh(&events->queue_lock);
 list_splice_init(&events->queue, &event_queue);
 spin_unlock_bh(&events->queue_lock);

 list_for_each_entry_safe(event, next_event, &event_queue, list) {
  local_port = mlxsw_reg_pmlp_local_port_get(event->pmlp_pl);
  err = mlxsw_sp_port_module_info_parse(mlxsw_sp, local_port,
            event->pmlp_pl, &port_mapping);
  if (err)
   goto out;

  if (WARN_ON_ONCE(!port_mapping.width))
   goto out;

  devl_lock(devlink);

  if (!mlxsw_sp_port_created(mlxsw_sp, local_port))
   mlxsw_sp_port_create(mlxsw_sp, local_port,
          false, &port_mapping);
  else
   WARN_ON_ONCE(1);

  devl_unlock(devlink);

  mlxsw_sp->port_mapping[local_port] = port_mapping;

out:
  kfree(event);
 }
}

static void
mlxsw_sp_port_mapping_listener_func(const struct mlxsw_reg_info *reg,
        char *pmlp_pl, void *priv)
{
 struct mlxsw_sp_port_mapping_events *events;
 struct mlxsw_sp_port_mapping_event *event;
 struct mlxsw_sp *mlxsw_sp = priv;
 u16 local_port;

 local_port = mlxsw_reg_pmlp_local_port_get(pmlp_pl);
 if (WARN_ON_ONCE(!mlxsw_sp_local_port_is_valid(mlxsw_sp, local_port)))
  return;

 events = &mlxsw_sp->port_mapping_events;
 event = kmalloc(sizeof(*event), GFP_ATOMIC);
 if (!event)
  return;
 memcpy(event->pmlp_pl, pmlp_pl, sizeof(event->pmlp_pl));
 spin_lock(&events->queue_lock);
 list_add_tail(&event->list, &events->queue);
 spin_unlock(&events->queue_lock);
 mlxsw_core_schedule_work(&events->work);
}

static void
__mlxsw_sp_port_mapping_events_cancel(struct mlxsw_sp *mlxsw_sp)
{
 struct mlxsw_sp_port_mapping_event *event, *next_event;
 struct mlxsw_sp_port_mapping_events *events;

 events = &mlxsw_sp->port_mapping_events;

 /* Caller needs to make sure that no new event is going to appear. */
 cancel_work_sync(&events->work);
 list_for_each_entry_safe(event, next_event, &events->queue, list) {
  list_del(&event->list);
  kfree(event);
 }
}

static void mlxsw_sp_ports_remove(struct mlxsw_sp *mlxsw_sp)
{
 unsigned int max_ports = mlxsw_core_max_ports(mlxsw_sp->core);
 int i;

 for (i = 1; i < max_ports; i++)
  mlxsw_sp_port_mapping_event_set(mlxsw_sp, i, false);
 /* Make sure all scheduled events are processed */
 __mlxsw_sp_port_mapping_events_cancel(mlxsw_sp);

 for (i = 1; i < max_ports; i++)
  if (mlxsw_sp_port_created(mlxsw_sp, i))
   mlxsw_sp_port_remove(mlxsw_sp, i);
 mlxsw_sp_cpu_port_remove(mlxsw_sp);
 kfree(mlxsw_sp->ports);
 mlxsw_sp->ports = NULL;
}

static void
mlxsw_sp_ports_remove_selected(struct mlxsw_core *mlxsw_core,
          bool (*selector)(void *priv, u16 local_port),
          void *priv)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_core_driver_priv(mlxsw_core);
 unsigned int max_ports = mlxsw_core_max_ports(mlxsw_core);
 int i;

 for (i = 1; i < max_ports; i++)
  if (mlxsw_sp_port_created(mlxsw_sp, i) && selector(priv, i))
   mlxsw_sp_port_remove(mlxsw_sp, i);
}

static int mlxsw_sp_ports_create(struct mlxsw_sp *mlxsw_sp)
{
 unsigned int max_ports = mlxsw_core_max_ports(mlxsw_sp->core);
 struct mlxsw_sp_port_mapping_events *events;
 struct mlxsw_sp_port_mapping *port_mapping;
 size_t alloc_size;
 int i;
 int err;

 alloc_size = sizeof(struct mlxsw_sp_port *) * max_ports;
 mlxsw_sp->ports = kzalloc(alloc_size, GFP_KERNEL);
 if (!mlxsw_sp->ports)
  return -ENOMEM;

 events = &mlxsw_sp->port_mapping_events;
 INIT_LIST_HEAD(&events->queue);
 spin_lock_init(&events->queue_lock);
 INIT_WORK(&events->work, mlxsw_sp_port_mapping_events_work);

 for (i = 1; i < max_ports; i++) {
  err = mlxsw_sp_port_mapping_event_set(mlxsw_sp, i, true);
  if (err)
   goto err_event_enable;
 }

 err = mlxsw_sp_cpu_port_create(mlxsw_sp);
 if (err)
  goto err_cpu_port_create;

 for (i = 1; i < max_ports; i++) {
  port_mapping = &mlxsw_sp->port_mapping[i];
  if (!port_mapping->width)
   continue;
  err = mlxsw_sp_port_create(mlxsw_sp, i, false, port_mapping);
  if (err)
   goto err_port_create;
 }
 return 0;

err_port_create:
 for (i--; i >= 1; i--)
  if (mlxsw_sp_port_created(mlxsw_sp, i))
   mlxsw_sp_port_remove(mlxsw_sp, i);
 i = max_ports;
 mlxsw_sp_cpu_port_remove(mlxsw_sp);
err_cpu_port_create:
err_event_enable:
 for (i--; i >= 1; i--)
  mlxsw_sp_port_mapping_event_set(mlxsw_sp, i, false);
 /* Make sure all scheduled events are processed */
 __mlxsw_sp_port_mapping_events_cancel(mlxsw_sp);
 kfree(mlxsw_sp->ports);
 mlxsw_sp->ports = NULL;
 return err;
}

static int mlxsw_sp_port_module_info_init(struct mlxsw_sp *mlxsw_sp)
{
 unsigned int max_ports = mlxsw_core_max_ports(mlxsw_sp->core);
 struct mlxsw_sp_port_mapping *port_mapping;
 int i;
 int err;

 mlxsw_sp->port_mapping = kcalloc(max_ports,
      sizeof(struct mlxsw_sp_port_mapping),
      GFP_KERNEL);
 if (!mlxsw_sp->port_mapping)
  return -ENOMEM;

 for (i = 1; i < max_ports; i++) {
  port_mapping = &mlxsw_sp->port_mapping[i];
  err = mlxsw_sp_port_module_info_get(mlxsw_sp, i, port_mapping);
  if (err)
   goto err_port_module_info_get;
 }
 return 0;

err_port_module_info_get:
 kfree(mlxsw_sp->port_mapping);
 return err;
}

static void mlxsw_sp_port_module_info_fini(struct mlxsw_sp *mlxsw_sp)
{
 kfree(mlxsw_sp->port_mapping);
}

static int
mlxsw_sp_port_split_create(struct mlxsw_sp *mlxsw_sp,
      struct mlxsw_sp_port_mapping *port_mapping,
      unsigned int count, const char *pmtdb_pl)
{
 struct mlxsw_sp_port_mapping split_port_mapping;
 int err, i;

 split_port_mapping = *port_mapping;
 split_port_mapping.width /= count;
 for (i = 0; i < count; i++) {
  u16 s_local_port = mlxsw_reg_pmtdb_port_num_get(pmtdb_pl, i);

  if (!mlxsw_sp_local_port_valid(s_local_port))
   continue;

  err = mlxsw_sp_port_create(mlxsw_sp, s_local_port,
        true, &split_port_mapping);
  if (err)
   goto err_port_create;
  split_port_mapping.lane += split_port_mapping.width;
 }

 return 0;

err_port_create:
 for (i--; i >= 0; i--) {
  u16 s_local_port = mlxsw_reg_pmtdb_port_num_get(pmtdb_pl, i);

  if (mlxsw_sp_port_created(mlxsw_sp, s_local_port))
   mlxsw_sp_port_remove(mlxsw_sp, s_local_port);
 }
 return err;
}

static void mlxsw_sp_port_unsplit_create(struct mlxsw_sp *mlxsw_sp,
      unsigned int count,
      const char *pmtdb_pl)
{
 struct mlxsw_sp_port_mapping *port_mapping;
 int i;

 /* Go over original unsplit ports in the gap and recreate them. */
 for (i = 0; i < count; i++) {
  u16 local_port = mlxsw_reg_pmtdb_port_num_get(pmtdb_pl, i);

  port_mapping = &mlxsw_sp->port_mapping[local_port];
  if (!port_mapping->width || !mlxsw_sp_local_port_valid(local_port))
   continue;
  mlxsw_sp_port_create(mlxsw_sp, local_port,
         false, port_mapping);
 }
}

static struct mlxsw_sp_port *
mlxsw_sp_port_get_by_local_port(struct mlxsw_sp *mlxsw_sp, u16 local_port)
{
 if (mlxsw_sp->ports && mlxsw_sp->ports[local_port])
  return mlxsw_sp->ports[local_port];
 return NULL;
}

static int mlxsw_sp_port_split(struct mlxsw_core *mlxsw_core, u16 local_port,
          unsigned int count,
          struct netlink_ext_ack *extack)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_core_driver_priv(mlxsw_core);
 struct mlxsw_sp_port_mapping port_mapping;
 struct mlxsw_sp_port *mlxsw_sp_port;
 enum mlxsw_reg_pmtdb_status status;
 char pmtdb_pl[MLXSW_REG_PMTDB_LEN];
 int i;
 int err;

 mlxsw_sp_port = mlxsw_sp_port_get_by_local_port(mlxsw_sp, local_port);
 if (!mlxsw_sp_port) {
  dev_err(mlxsw_sp->bus_info->dev, "Port number \"%d\" does not exist\n",
   local_port);
  NL_SET_ERR_MSG_MOD(extack, "Port number does not exist");
  return -EINVAL;
 }

 if (mlxsw_sp_port->split) {
  NL_SET_ERR_MSG_MOD(extack, "Port is already split");
  return -EINVAL;
 }

 mlxsw_reg_pmtdb_pack(pmtdb_pl, mlxsw_sp_port->mapping.slot_index,
        mlxsw_sp_port->mapping.module,
        mlxsw_sp_port->mapping.module_width / count,
        count);
 err = mlxsw_reg_query(mlxsw_core, MLXSW_REG(pmtdb), pmtdb_pl);
 if (err) {
  NL_SET_ERR_MSG_MOD(extack, "Failed to query split info");
  return err;
 }

 status = mlxsw_reg_pmtdb_status_get(pmtdb_pl);
 if (status != MLXSW_REG_PMTDB_STATUS_SUCCESS) {
  NL_SET_ERR_MSG_MOD(extack, "Unsupported split configuration");
  return -EINVAL;
 }

 port_mapping = mlxsw_sp_port->mapping;

 for (i = 0; i < count; i++) {
  u16 s_local_port = mlxsw_reg_pmtdb_port_num_get(pmtdb_pl, i);

  if (mlxsw_sp_port_created(mlxsw_sp, s_local_port))
   mlxsw_sp_port_remove(mlxsw_sp, s_local_port);
 }

 err = mlxsw_sp_port_split_create(mlxsw_sp, &port_mapping,
      count, pmtdb_pl);
 if (err) {
  dev_err(mlxsw_sp->bus_info->dev, "Failed to create split ports\n");
  goto err_port_split_create;
 }

 return 0;

err_port_split_create:
 mlxsw_sp_port_unsplit_create(mlxsw_sp, count, pmtdb_pl);

 return err;
}

static int mlxsw_sp_port_unsplit(struct mlxsw_core *mlxsw_core, u16 local_port,
     struct netlink_ext_ack *extack)
{
 struct mlxsw_sp *mlxsw_sp = mlxsw_core_driver_priv(mlxsw_core);
 struct mlxsw_sp_port *mlxsw_sp_port;
 char pmtdb_pl[MLXSW_REG_PMTDB_LEN];
 unsigned int count;
 int i;
 int err;

 mlxsw_sp_port = mlxsw_sp_port_get_by_local_port(mlxsw_sp, local_port);
 if (!mlxsw_sp_port) {
  dev_err(mlxsw_sp->bus_info->dev, "Port number \"%d\" does not exist\n",
   local_port);
  NL_SET_ERR_MSG_MOD(extack, "Port number does not exist");
  return -EINVAL;
 }

 if (!mlxsw_sp_port->split) {
  NL_SET_ERR_MSG_MOD(extack, "Port was not split");
  return -EINVAL;
 }

 count = mlxsw_sp_port->mapping.module_width /
  mlxsw_sp_port->mapping.width;

 mlxsw_reg_pmtdb_pack(pmtdb_pl, mlxsw_sp_port->mapping.slot_index,
        mlxsw_sp_port->mapping.module,
        mlxsw_sp_port->mapping.module_width / count,
        count);
 err = mlxsw_reg_query(mlxsw_core, MLXSW_REG(pmtdb), pmtdb_pl);
 if (err) {
  NL_SET_ERR_MSG_MOD(extack, "Failed to query split info");
  return err;
 }

 for (i = 0; i < count; i++) {
  u16 s_local_port = mlxsw_reg_pmtdb_port_num_get(pmtdb_pl, i);

  if (mlxsw_sp_port_created(mlxsw_sp, s_local_port))
   mlxsw_sp_port_remove(mlxsw_sp, s_local_port);
 }

 mlxsw_sp_port_unsplit_create(mlxsw_sp, count, pmtdb_pl);

 return 0;
}

static void
mlxsw_sp_port_down_wipe_counters(struct mlxsw_sp_port *mlxsw_sp_port)
{
 int i;

 for (i = 0; i < TC_MAX_QUEUE; i++)
  mlxsw_sp_port->periodic_hw_stats.xstats.backlog[i] = 0;
}

static void mlxsw_sp_pude_event_func(const struct mlxsw_reg_info *reg,
         char *pude_pl, void *priv)
{
 struct mlxsw_sp *mlxsw_sp = priv;
 struct mlxsw_sp_port *mlxsw_sp_port;
 enum mlxsw_reg_pude_oper_status status;
 u16 local_port;

 local_port = mlxsw_reg_pude_local_port_get(pude_pl);

 if (WARN_ON_ONCE(!mlxsw_sp_local_port_is_valid(mlxsw_sp, local_port)))
  return;
 mlxsw_sp_port = mlxsw_sp->ports[local_port];
 if (!mlxsw_sp_port)
  return;

 status = mlxsw_reg_pude_oper_status_get(pude_pl);
 if (status == MLXSW_PORT_OPER_STATUS_UP) {
  netdev_info(mlxsw_sp_port->dev, "link up\n");
  netif_carrier_on(mlxsw_sp_port->dev);
  mlxsw_core_schedule_dw(&mlxsw_sp_port->ptp.shaper_dw, 0);
 } else {
  netdev_info(mlxsw_sp_port->dev, "link down\n");
  netif_carrier_off(mlxsw_sp_port->dev);
  mlxsw_sp_port_down_wipe_counters(mlxsw_sp_port);
 }
}

static void mlxsw_sp1_ptp_fifo_event_func(struct mlxsw_sp *mlxsw_sp,
       char *mtpptr_pl, bool ingress)
{
 u16 local_port;
 u8 num_rec;
 int i;

 local_port = mlxsw_reg_mtpptr_local_port_get(mtpptr_pl);
 num_rec = mlxsw_reg_mtpptr_num_rec_get(mtpptr_pl);
 for (i = 0; i < num_rec; i++) {
  u8 domain_number;
  u8 message_type;
  u16 sequence_id;
  u64 timestamp;

  mlxsw_reg_mtpptr_unpack(mtpptr_pl, i, &message_type,
     &domain_number, &sequence_id,
     ×tamp);
  mlxsw_sp1_ptp_got_timestamp(mlxsw_sp, ingress, local_port,
         message_type, domain_number,
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=98 H=93 G=95

¤ Dauer der Verarbeitung: 0.16 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....
    

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge