Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


Quelle  airoha_eth.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-only
/*
 * Copyright (c) 2024 AIROHA Inc
 * Author: Lorenzo Bianconi <lorenzo@kernel.org>
 */

#include <linux/of.h>
#include <linux/of_net.h>
#include <linux/of_reserved_mem.h>
#include <linux/platform_device.h>
#include <linux/tcp.h>
#include <linux/u64_stats_sync.h>
#include <net/dst_metadata.h>
#include <net/page_pool/helpers.h>
#include <net/pkt_cls.h>
#include <uapi/linux/ppp_defs.h>

#include "airoha_regs.h"
#include "airoha_eth.h"

u32 airoha_rr(void __iomem *base, u32 offset)
{
 return readl(base + offset);
}

void airoha_wr(void __iomem *base, u32 offset, u32 val)
{
 writel(val, base + offset);
}

u32 airoha_rmw(void __iomem *base, u32 offset, u32 mask, u32 val)
{
 val |= (airoha_rr(base, offset) & ~mask);
 airoha_wr(base, offset, val);

 return val;
}

static void airoha_qdma_set_irqmask(struct airoha_irq_bank *irq_bank,
        int index, u32 clear, u32 set)
{
 struct airoha_qdma *qdma = irq_bank->qdma;
 int bank = irq_bank - &qdma->irq_banks[0];
 unsigned long flags;

 if (WARN_ON_ONCE(index >= ARRAY_SIZE(irq_bank->irqmask)))
  return;

 spin_lock_irqsave(&irq_bank->irq_lock, flags);

 irq_bank->irqmask[index] &= ~clear;
 irq_bank->irqmask[index] |= set;
 airoha_qdma_wr(qdma, REG_INT_ENABLE(bank, index),
         irq_bank->irqmask[index]);
 /* Read irq_enable register in order to guarantee the update above
 * completes in the spinlock critical section.
 */

 airoha_qdma_rr(qdma, REG_INT_ENABLE(bank, index));

 spin_unlock_irqrestore(&irq_bank->irq_lock, flags);
}

static void airoha_qdma_irq_enable(struct airoha_irq_bank *irq_bank,
       int index, u32 mask)
{
 airoha_qdma_set_irqmask(irq_bank, index, 0, mask);
}

static void airoha_qdma_irq_disable(struct airoha_irq_bank *irq_bank,
        int index, u32 mask)
{
 airoha_qdma_set_irqmask(irq_bank, index, mask, 0);
}

static void airoha_set_macaddr(struct airoha_gdm_port *port, const u8 *addr)
{
 struct airoha_eth *eth = port->qdma->eth;
 u32 val, reg;

 reg = airhoa_is_lan_gdm_port(port) ? REG_FE_LAN_MAC_H
        : REG_FE_WAN_MAC_H;
 val = (addr[0] << 16) | (addr[1] << 8) | addr[2];
 airoha_fe_wr(eth, reg, val);

 val = (addr[3] << 16) | (addr[4] << 8) | addr[5];
 airoha_fe_wr(eth, REG_FE_MAC_LMIN(reg), val);
 airoha_fe_wr(eth, REG_FE_MAC_LMAX(reg), val);

 airoha_ppe_init_upd_mem(port);
}

static void airoha_set_gdm_port_fwd_cfg(struct airoha_eth *eth, u32 addr,
     u32 val)
{
 airoha_fe_rmw(eth, addr, GDM_OCFQ_MASK,
        FIELD_PREP(GDM_OCFQ_MASK, val));
 airoha_fe_rmw(eth, addr, GDM_MCFQ_MASK,
        FIELD_PREP(GDM_MCFQ_MASK, val));
 airoha_fe_rmw(eth, addr, GDM_BCFQ_MASK,
        FIELD_PREP(GDM_BCFQ_MASK, val));
 airoha_fe_rmw(eth, addr, GDM_UCFQ_MASK,
        FIELD_PREP(GDM_UCFQ_MASK, val));
}

static int airoha_set_vip_for_gdm_port(struct airoha_gdm_port *port,
           bool enable)
{
 struct airoha_eth *eth = port->qdma->eth;
 u32 vip_port;

 switch (port->id) {
 case 3:
  /* FIXME: handle XSI_PCIE1_PORT */
  vip_port = XSI_PCIE0_VIP_PORT_MASK;
  break;
 case 4:
  /* FIXME: handle XSI_USB_PORT */
  vip_port = XSI_ETH_VIP_PORT_MASK;
  break;
 default:
  return 0;
 }

 if (enable) {
  airoha_fe_set(eth, REG_FE_VIP_PORT_EN, vip_port);
  airoha_fe_set(eth, REG_FE_IFC_PORT_EN, vip_port);
 } else {
  airoha_fe_clear(eth, REG_FE_VIP_PORT_EN, vip_port);
  airoha_fe_clear(eth, REG_FE_IFC_PORT_EN, vip_port);
 }

 return 0;
}

static void airoha_fe_maccr_init(struct airoha_eth *eth)
{
 int p;

 for (p = 1; p <= ARRAY_SIZE(eth->ports); p++)
  airoha_fe_set(eth, REG_GDM_FWD_CFG(p),
         GDM_TCP_CKSUM | GDM_UDP_CKSUM | GDM_IP4_CKSUM |
         GDM_DROP_CRC_ERR);

 airoha_fe_rmw(eth, REG_CDM1_VLAN_CTRL, CDM1_VLAN_MASK,
        FIELD_PREP(CDM1_VLAN_MASK, 0x8100));

 airoha_fe_set(eth, REG_FE_CPORT_CFG, FE_CPORT_PAD);
}

static void airoha_fe_vip_setup(struct airoha_eth *eth)
{
 airoha_fe_wr(eth, REG_FE_VIP_PATN(3), ETH_P_PPP_DISC);
 airoha_fe_wr(eth, REG_FE_VIP_EN(3), PATN_FCPU_EN_MASK | PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(4), PPP_LCP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(4),
       PATN_FCPU_EN_MASK | FIELD_PREP(PATN_TYPE_MASK, 1) |
       PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(6), PPP_IPCP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(6),
       PATN_FCPU_EN_MASK | FIELD_PREP(PATN_TYPE_MASK, 1) |
       PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(7), PPP_CHAP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(7),
       PATN_FCPU_EN_MASK | FIELD_PREP(PATN_TYPE_MASK, 1) |
       PATN_EN_MASK);

 /* BOOTP (0x43) */
 airoha_fe_wr(eth, REG_FE_VIP_PATN(8), 0x43);
 airoha_fe_wr(eth, REG_FE_VIP_EN(8),
       PATN_FCPU_EN_MASK | PATN_SP_EN_MASK |
       FIELD_PREP(PATN_TYPE_MASK, 4) | PATN_EN_MASK);

 /* BOOTP (0x44) */
 airoha_fe_wr(eth, REG_FE_VIP_PATN(9), 0x44);
 airoha_fe_wr(eth, REG_FE_VIP_EN(9),
       PATN_FCPU_EN_MASK | PATN_SP_EN_MASK |
       FIELD_PREP(PATN_TYPE_MASK, 4) | PATN_EN_MASK);

 /* ISAKMP */
 airoha_fe_wr(eth, REG_FE_VIP_PATN(10), 0x1f401f4);
 airoha_fe_wr(eth, REG_FE_VIP_EN(10),
       PATN_FCPU_EN_MASK | PATN_DP_EN_MASK | PATN_SP_EN_MASK |
       FIELD_PREP(PATN_TYPE_MASK, 4) | PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(11), PPP_IPV6CP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(11),
       PATN_FCPU_EN_MASK | FIELD_PREP(PATN_TYPE_MASK, 1) |
       PATN_EN_MASK);

 /* DHCPv6 */
 airoha_fe_wr(eth, REG_FE_VIP_PATN(12), 0x2220223);
 airoha_fe_wr(eth, REG_FE_VIP_EN(12),
       PATN_FCPU_EN_MASK | PATN_DP_EN_MASK | PATN_SP_EN_MASK |
       FIELD_PREP(PATN_TYPE_MASK, 4) | PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(19), PPP_PAP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(19),
       PATN_FCPU_EN_MASK | FIELD_PREP(PATN_TYPE_MASK, 1) |
       PATN_EN_MASK);

 /* ETH->ETH_P_1905 (0x893a) */
 airoha_fe_wr(eth, REG_FE_VIP_PATN(20), 0x893a);
 airoha_fe_wr(eth, REG_FE_VIP_EN(20),
       PATN_FCPU_EN_MASK | PATN_EN_MASK);

 airoha_fe_wr(eth, REG_FE_VIP_PATN(21), ETH_P_LLDP);
 airoha_fe_wr(eth, REG_FE_VIP_EN(21),
       PATN_FCPU_EN_MASK | PATN_EN_MASK);
}

static u32 airoha_fe_get_pse_queue_rsv_pages(struct airoha_eth *eth,
          u32 port, u32 queue)
{
 u32 val;

 airoha_fe_rmw(eth, REG_FE_PSE_QUEUE_CFG_WR,
        PSE_CFG_PORT_ID_MASK | PSE_CFG_QUEUE_ID_MASK,
        FIELD_PREP(PSE_CFG_PORT_ID_MASK, port) |
        FIELD_PREP(PSE_CFG_QUEUE_ID_MASK, queue));
 val = airoha_fe_rr(eth, REG_FE_PSE_QUEUE_CFG_VAL);

 return FIELD_GET(PSE_CFG_OQ_RSV_MASK, val);
}

static void airoha_fe_set_pse_queue_rsv_pages(struct airoha_eth *eth,
           u32 port, u32 queue, u32 val)
{
 airoha_fe_rmw(eth, REG_FE_PSE_QUEUE_CFG_VAL, PSE_CFG_OQ_RSV_MASK,
        FIELD_PREP(PSE_CFG_OQ_RSV_MASK, val));
 airoha_fe_rmw(eth, REG_FE_PSE_QUEUE_CFG_WR,
        PSE_CFG_PORT_ID_MASK | PSE_CFG_QUEUE_ID_MASK |
        PSE_CFG_WR_EN_MASK | PSE_CFG_OQRSV_SEL_MASK,
        FIELD_PREP(PSE_CFG_PORT_ID_MASK, port) |
        FIELD_PREP(PSE_CFG_QUEUE_ID_MASK, queue) |
        PSE_CFG_WR_EN_MASK | PSE_CFG_OQRSV_SEL_MASK);
}

static u32 airoha_fe_get_pse_all_rsv(struct airoha_eth *eth)
{
 u32 val = airoha_fe_rr(eth, REG_FE_PSE_BUF_SET);

 return FIELD_GET(PSE_ALLRSV_MASK, val);
}

static int airoha_fe_set_pse_oq_rsv(struct airoha_eth *eth,
        u32 port, u32 queue, u32 val)
{
 u32 orig_val = airoha_fe_get_pse_queue_rsv_pages(eth, port, queue);
 u32 tmp, all_rsv, fq_limit;

 airoha_fe_set_pse_queue_rsv_pages(eth, port, queue, val);

 /* modify all rsv */
 all_rsv = airoha_fe_get_pse_all_rsv(eth);
 all_rsv += (val - orig_val);
 airoha_fe_rmw(eth, REG_FE_PSE_BUF_SET, PSE_ALLRSV_MASK,
        FIELD_PREP(PSE_ALLRSV_MASK, all_rsv));

 /* modify hthd */
 tmp = airoha_fe_rr(eth, PSE_FQ_CFG);
 fq_limit = FIELD_GET(PSE_FQ_LIMIT_MASK, tmp);
 tmp = fq_limit - all_rsv - 0x20;
 airoha_fe_rmw(eth, REG_PSE_SHARE_USED_THD,
        PSE_SHARE_USED_HTHD_MASK,
        FIELD_PREP(PSE_SHARE_USED_HTHD_MASK, tmp));

 tmp = fq_limit - all_rsv - 0x100;
 airoha_fe_rmw(eth, REG_PSE_SHARE_USED_THD,
        PSE_SHARE_USED_MTHD_MASK,
        FIELD_PREP(PSE_SHARE_USED_MTHD_MASK, tmp));
 tmp = (3 * tmp) >> 2;
 airoha_fe_rmw(eth, REG_FE_PSE_BUF_SET,
        PSE_SHARE_USED_LTHD_MASK,
        FIELD_PREP(PSE_SHARE_USED_LTHD_MASK, tmp));

 return 0;
}

static void airoha_fe_pse_ports_init(struct airoha_eth *eth)
{
 const u32 pse_port_num_queues[] = {
  [FE_PSE_PORT_CDM1] = 6,
  [FE_PSE_PORT_GDM1] = 6,
  [FE_PSE_PORT_GDM2] = 32,
  [FE_PSE_PORT_GDM3] = 6,
  [FE_PSE_PORT_PPE1] = 4,
  [FE_PSE_PORT_CDM2] = 6,
  [FE_PSE_PORT_CDM3] = 8,
  [FE_PSE_PORT_CDM4] = 10,
  [FE_PSE_PORT_PPE2] = 4,
  [FE_PSE_PORT_GDM4] = 2,
  [FE_PSE_PORT_CDM5] = 2,
 };
 u32 all_rsv;
 int q;

 all_rsv = airoha_fe_get_pse_all_rsv(eth);
 /* hw misses PPE2 oq rsv */
 all_rsv += PSE_RSV_PAGES * pse_port_num_queues[FE_PSE_PORT_PPE2];
 airoha_fe_set(eth, REG_FE_PSE_BUF_SET, all_rsv);

 /* CMD1 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_CDM1]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_CDM1, q,
      PSE_QUEUE_RSV_PAGES);
 /* GMD1 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_GDM1]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_GDM1, q,
      PSE_QUEUE_RSV_PAGES);
 /* GMD2 */
 for (q = 6; q < pse_port_num_queues[FE_PSE_PORT_GDM2]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_GDM2, q, 0);
 /* GMD3 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_GDM3]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_GDM3, q,
      PSE_QUEUE_RSV_PAGES);
 /* PPE1 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_PPE1]; q++) {
  if (q < pse_port_num_queues[FE_PSE_PORT_PPE1])
   airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_PPE1, q,
       PSE_QUEUE_RSV_PAGES);
  else
   airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_PPE1, q, 0);
 }
 /* CDM2 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_CDM2]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_CDM2, q,
      PSE_QUEUE_RSV_PAGES);
 /* CDM3 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_CDM3] - 1; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_CDM3, q, 0);
 /* CDM4 */
 for (q = 4; q < pse_port_num_queues[FE_PSE_PORT_CDM4]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_CDM4, q,
      PSE_QUEUE_RSV_PAGES);
 /* PPE2 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_PPE2]; q++) {
  if (q < pse_port_num_queues[FE_PSE_PORT_PPE2] / 2)
   airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_PPE2, q,
       PSE_QUEUE_RSV_PAGES);
  else
   airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_PPE2, q, 0);
 }
 /* GMD4 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_GDM4]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_GDM4, q,
      PSE_QUEUE_RSV_PAGES);
 /* CDM5 */
 for (q = 0; q < pse_port_num_queues[FE_PSE_PORT_CDM5]; q++)
  airoha_fe_set_pse_oq_rsv(eth, FE_PSE_PORT_CDM5, q,
      PSE_QUEUE_RSV_PAGES);
}

static int airoha_fe_mc_vlan_clear(struct airoha_eth *eth)
{
 int i;

 for (i = 0; i < AIROHA_FE_MC_MAX_VLAN_TABLE; i++) {
  int err, j;
  u32 val;

  airoha_fe_wr(eth, REG_MC_VLAN_DATA, 0x0);

  val = FIELD_PREP(MC_VLAN_CFG_TABLE_ID_MASK, i) |
        MC_VLAN_CFG_TABLE_SEL_MASK | MC_VLAN_CFG_RW_MASK;
  airoha_fe_wr(eth, REG_MC_VLAN_CFG, val);
  err = read_poll_timeout(airoha_fe_rr, val,
     val & MC_VLAN_CFG_CMD_DONE_MASK,
     USEC_PER_MSEC, 5 * USEC_PER_MSEC,
     false, eth, REG_MC_VLAN_CFG);
  if (err)
   return err;

  for (j = 0; j < AIROHA_FE_MC_MAX_VLAN_PORT; j++) {
   airoha_fe_wr(eth, REG_MC_VLAN_DATA, 0x0);

   val = FIELD_PREP(MC_VLAN_CFG_TABLE_ID_MASK, i) |
         FIELD_PREP(MC_VLAN_CFG_PORT_ID_MASK, j) |
         MC_VLAN_CFG_RW_MASK;
   airoha_fe_wr(eth, REG_MC_VLAN_CFG, val);
   err = read_poll_timeout(airoha_fe_rr, val,
      val & MC_VLAN_CFG_CMD_DONE_MASK,
      USEC_PER_MSEC,
      5 * USEC_PER_MSEC, false, eth,
      REG_MC_VLAN_CFG);
   if (err)
    return err;
  }
 }

 return 0;
}

static void airoha_fe_crsn_qsel_init(struct airoha_eth *eth)
{
 /* CDM1_CRSN_QSEL */
 airoha_fe_rmw(eth, REG_CDM1_CRSN_QSEL(CRSN_22 >> 2),
        CDM1_CRSN_QSEL_REASON_MASK(CRSN_22),
        FIELD_PREP(CDM1_CRSN_QSEL_REASON_MASK(CRSN_22),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM1_CRSN_QSEL(CRSN_08 >> 2),
        CDM1_CRSN_QSEL_REASON_MASK(CRSN_08),
        FIELD_PREP(CDM1_CRSN_QSEL_REASON_MASK(CRSN_08),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM1_CRSN_QSEL(CRSN_21 >> 2),
        CDM1_CRSN_QSEL_REASON_MASK(CRSN_21),
        FIELD_PREP(CDM1_CRSN_QSEL_REASON_MASK(CRSN_21),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM1_CRSN_QSEL(CRSN_24 >> 2),
        CDM1_CRSN_QSEL_REASON_MASK(CRSN_24),
        FIELD_PREP(CDM1_CRSN_QSEL_REASON_MASK(CRSN_24),
     CDM_CRSN_QSEL_Q6));
 airoha_fe_rmw(eth, REG_CDM1_CRSN_QSEL(CRSN_25 >> 2),
        CDM1_CRSN_QSEL_REASON_MASK(CRSN_25),
        FIELD_PREP(CDM1_CRSN_QSEL_REASON_MASK(CRSN_25),
     CDM_CRSN_QSEL_Q1));
 /* CDM2_CRSN_QSEL */
 airoha_fe_rmw(eth, REG_CDM2_CRSN_QSEL(CRSN_08 >> 2),
        CDM2_CRSN_QSEL_REASON_MASK(CRSN_08),
        FIELD_PREP(CDM2_CRSN_QSEL_REASON_MASK(CRSN_08),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM2_CRSN_QSEL(CRSN_21 >> 2),
        CDM2_CRSN_QSEL_REASON_MASK(CRSN_21),
        FIELD_PREP(CDM2_CRSN_QSEL_REASON_MASK(CRSN_21),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM2_CRSN_QSEL(CRSN_22 >> 2),
        CDM2_CRSN_QSEL_REASON_MASK(CRSN_22),
        FIELD_PREP(CDM2_CRSN_QSEL_REASON_MASK(CRSN_22),
     CDM_CRSN_QSEL_Q1));
 airoha_fe_rmw(eth, REG_CDM2_CRSN_QSEL(CRSN_24 >> 2),
        CDM2_CRSN_QSEL_REASON_MASK(CRSN_24),
        FIELD_PREP(CDM2_CRSN_QSEL_REASON_MASK(CRSN_24),
     CDM_CRSN_QSEL_Q6));
 airoha_fe_rmw(eth, REG_CDM2_CRSN_QSEL(CRSN_25 >> 2),
        CDM2_CRSN_QSEL_REASON_MASK(CRSN_25),
        FIELD_PREP(CDM2_CRSN_QSEL_REASON_MASK(CRSN_25),
     CDM_CRSN_QSEL_Q1));
}

static int airoha_fe_init(struct airoha_eth *eth)
{
 airoha_fe_maccr_init(eth);

 /* PSE IQ reserve */
 airoha_fe_rmw(eth, REG_PSE_IQ_REV1, PSE_IQ_RES1_P2_MASK,
        FIELD_PREP(PSE_IQ_RES1_P2_MASK, 0x10));
 airoha_fe_rmw(eth, REG_PSE_IQ_REV2,
        PSE_IQ_RES2_P5_MASK | PSE_IQ_RES2_P4_MASK,
        FIELD_PREP(PSE_IQ_RES2_P5_MASK, 0x40) |
        FIELD_PREP(PSE_IQ_RES2_P4_MASK, 0x34));

 /* enable FE copy engine for MC/KA/DPI */
 airoha_fe_wr(eth, REG_FE_PCE_CFG,
       PCE_DPI_EN_MASK | PCE_KA_EN_MASK | PCE_MC_EN_MASK);
 /* set vip queue selection to ring 1 */
 airoha_fe_rmw(eth, REG_CDM1_FWD_CFG, CDM1_VIP_QSEL_MASK,
        FIELD_PREP(CDM1_VIP_QSEL_MASK, 0x4));
 airoha_fe_rmw(eth, REG_CDM2_FWD_CFG, CDM2_VIP_QSEL_MASK,
        FIELD_PREP(CDM2_VIP_QSEL_MASK, 0x4));
 /* set GDM4 source interface offset to 8 */
 airoha_fe_rmw(eth, REG_GDM4_SRC_PORT_SET,
        GDM4_SPORT_OFF2_MASK |
        GDM4_SPORT_OFF1_MASK |
        GDM4_SPORT_OFF0_MASK,
        FIELD_PREP(GDM4_SPORT_OFF2_MASK, 8) |
        FIELD_PREP(GDM4_SPORT_OFF1_MASK, 8) |
        FIELD_PREP(GDM4_SPORT_OFF0_MASK, 8));

 /* set PSE Page as 128B */
 airoha_fe_rmw(eth, REG_FE_DMA_GLO_CFG,
        FE_DMA_GLO_L2_SPACE_MASK | FE_DMA_GLO_PG_SZ_MASK,
        FIELD_PREP(FE_DMA_GLO_L2_SPACE_MASK, 2) |
        FE_DMA_GLO_PG_SZ_MASK);
 airoha_fe_wr(eth, REG_FE_RST_GLO_CFG,
       FE_RST_CORE_MASK | FE_RST_GDM3_MBI_ARB_MASK |
       FE_RST_GDM4_MBI_ARB_MASK);
 usleep_range(1000, 2000);

 /* connect RxRing1 and RxRing15 to PSE Port0 OQ-1
 * connect other rings to PSE Port0 OQ-0
 */

 airoha_fe_wr(eth, REG_FE_CDM1_OQ_MAP0, BIT(4));
 airoha_fe_wr(eth, REG_FE_CDM1_OQ_MAP1, BIT(28));
 airoha_fe_wr(eth, REG_FE_CDM1_OQ_MAP2, BIT(4));
 airoha_fe_wr(eth, REG_FE_CDM1_OQ_MAP3, BIT(28));

 airoha_fe_vip_setup(eth);
 airoha_fe_pse_ports_init(eth);

 airoha_fe_set(eth, REG_GDM_MISC_CFG,
        GDM2_RDM_ACK_WAIT_PREF_MASK |
        GDM2_CHN_VLD_MODE_MASK);
 airoha_fe_rmw(eth, REG_CDM2_FWD_CFG, CDM2_OAM_QSEL_MASK,
        FIELD_PREP(CDM2_OAM_QSEL_MASK, 15));

 /* init fragment and assemble Force Port */
 /* NPU Core-3, NPU Bridge Channel-3 */
 airoha_fe_rmw(eth, REG_IP_FRAG_FP,
        IP_FRAGMENT_PORT_MASK | IP_FRAGMENT_NBQ_MASK,
        FIELD_PREP(IP_FRAGMENT_PORT_MASK, 6) |
        FIELD_PREP(IP_FRAGMENT_NBQ_MASK, 3));
 /* QDMA LAN, RX Ring-22 */
 airoha_fe_rmw(eth, REG_IP_FRAG_FP,
        IP_ASSEMBLE_PORT_MASK | IP_ASSEMBLE_NBQ_MASK,
        FIELD_PREP(IP_ASSEMBLE_PORT_MASK, 0) |
        FIELD_PREP(IP_ASSEMBLE_NBQ_MASK, 22));

 airoha_fe_set(eth, REG_GDM3_FWD_CFG, GDM3_PAD_EN_MASK);
 airoha_fe_set(eth, REG_GDM4_FWD_CFG, GDM4_PAD_EN_MASK);

 airoha_fe_crsn_qsel_init(eth);

 airoha_fe_clear(eth, REG_FE_CPORT_CFG, FE_CPORT_QUEUE_XFC_MASK);
 airoha_fe_set(eth, REG_FE_CPORT_CFG, FE_CPORT_PORT_XFC_MASK);

 /* default aging mode for mbi unlock issue */
 airoha_fe_rmw(eth, REG_GDM2_CHN_RLS,
        MBI_RX_AGE_SEL_MASK | MBI_TX_AGE_SEL_MASK,
        FIELD_PREP(MBI_RX_AGE_SEL_MASK, 3) |
        FIELD_PREP(MBI_TX_AGE_SEL_MASK, 3));

 /* disable IFC by default */
 airoha_fe_clear(eth, REG_FE_CSR_IFC_CFG, FE_IFC_EN_MASK);

 airoha_fe_wr(eth, REG_PPE_DFT_CPORT0(0),
       FIELD_PREP(DFT_CPORT_MASK(7), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(6), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(5), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(4), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(3), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(2), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(1), FE_PSE_PORT_CDM1) |
       FIELD_PREP(DFT_CPORT_MASK(0), FE_PSE_PORT_CDM1));
 airoha_fe_wr(eth, REG_PPE_DFT_CPORT0(1),
       FIELD_PREP(DFT_CPORT_MASK(7), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(6), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(5), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(4), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(3), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(2), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(1), FE_PSE_PORT_CDM2) |
       FIELD_PREP(DFT_CPORT_MASK(0), FE_PSE_PORT_CDM2));

 /* enable 1:N vlan action, init vlan table */
 airoha_fe_set(eth, REG_MC_VLAN_EN, MC_VLAN_EN_MASK);

 return airoha_fe_mc_vlan_clear(eth);
}

static int airoha_qdma_fill_rx_queue(struct airoha_queue *q)
{
 struct airoha_qdma *qdma = q->qdma;
 int qid = q - &qdma->q_rx[0];
 int nframes = 0;

 while (q->queued < q->ndesc - 1) {
  struct airoha_queue_entry *e = &q->entry[q->head];
  struct airoha_qdma_desc *desc = &q->desc[q->head];
  struct page *page;
  int offset;
  u32 val;

  page = page_pool_dev_alloc_frag(q->page_pool, &offset,
      q->buf_size);
  if (!page)
   break;

  q->head = (q->head + 1) % q->ndesc;
  q->queued++;
  nframes++;

  e->buf = page_address(page) + offset;
  e->dma_addr = page_pool_get_dma_addr(page) + offset;
  e->dma_len = SKB_WITH_OVERHEAD(q->buf_size);

  val = FIELD_PREP(QDMA_DESC_LEN_MASK, e->dma_len);
  WRITE_ONCE(desc->ctrl, cpu_to_le32(val));
  WRITE_ONCE(desc->addr, cpu_to_le32(e->dma_addr));
  val = FIELD_PREP(QDMA_DESC_NEXT_ID_MASK, q->head);
  WRITE_ONCE(desc->data, cpu_to_le32(val));
  WRITE_ONCE(desc->msg0, 0);
  WRITE_ONCE(desc->msg1, 0);
  WRITE_ONCE(desc->msg2, 0);
  WRITE_ONCE(desc->msg3, 0);

  airoha_qdma_rmw(qdma, REG_RX_CPU_IDX(qid),
    RX_RING_CPU_IDX_MASK,
    FIELD_PREP(RX_RING_CPU_IDX_MASK, q->head));
 }

 return nframes;
}

static int airoha_qdma_get_gdm_port(struct airoha_eth *eth,
        struct airoha_qdma_desc *desc)
{
 u32 port, sport, msg1 = le32_to_cpu(desc->msg1);

 sport = FIELD_GET(QDMA_ETH_RXMSG_SPORT_MASK, msg1);
 switch (sport) {
 case 0x10 ... 0x14:
  port = 0;
  break;
 case 0x2 ... 0x4:
  port = sport - 1;
  break;
 default:
  return -EINVAL;
 }

 return port >= ARRAY_SIZE(eth->ports) ? -EINVAL : port;
}

static int airoha_qdma_rx_process(struct airoha_queue *q, int budget)
{
 enum dma_data_direction dir = page_pool_get_dma_dir(q->page_pool);
 struct airoha_qdma *qdma = q->qdma;
 struct airoha_eth *eth = qdma->eth;
 int qid = q - &qdma->q_rx[0];
 int done = 0;

 while (done < budget) {
  struct airoha_queue_entry *e = &q->entry[q->tail];
  struct airoha_qdma_desc *desc = &q->desc[q->tail];
  u32 hash, reason, msg1 = le32_to_cpu(desc->msg1);
  struct page *page = virt_to_head_page(e->buf);
  u32 desc_ctrl = le32_to_cpu(desc->ctrl);
  struct airoha_gdm_port *port;
  int data_len, len, p;

  if (!(desc_ctrl & QDMA_DESC_DONE_MASK))
   break;

  q->tail = (q->tail + 1) % q->ndesc;
  q->queued--;

  dma_sync_single_for_cpu(eth->dev, e->dma_addr,
     SKB_WITH_OVERHEAD(q->buf_size), dir);

  len = FIELD_GET(QDMA_DESC_LEN_MASK, desc_ctrl);
  data_len = q->skb ? q->buf_size
      : SKB_WITH_OVERHEAD(q->buf_size);
  if (!len || data_len < len)
   goto free_frag;

  p = airoha_qdma_get_gdm_port(eth, desc);
  if (p < 0 || !eth->ports[p])
   goto free_frag;

  port = eth->ports[p];
  if (!q->skb) { /* first buffer */
   q->skb = napi_build_skb(e->buf, q->buf_size);
   if (!q->skb)
    goto free_frag;

   __skb_put(q->skb, len);
   skb_mark_for_recycle(q->skb);
   q->skb->dev = port->dev;
   q->skb->protocol = eth_type_trans(q->skb, port->dev);
   q->skb->ip_summed = CHECKSUM_UNNECESSARY;
   skb_record_rx_queue(q->skb, qid);
  } else { /* scattered frame */
   struct skb_shared_info *shinfo = skb_shinfo(q->skb);
   int nr_frags = shinfo->nr_frags;

   if (nr_frags >= ARRAY_SIZE(shinfo->frags))
    goto free_frag;

   skb_add_rx_frag(q->skb, nr_frags, page,
     e->buf - page_address(page), len,
     q->buf_size);
  }

  if (FIELD_GET(QDMA_DESC_MORE_MASK, desc_ctrl))
   continue;

  if (netdev_uses_dsa(port->dev)) {
   /* PPE module requires untagged packets to work
 * properly and it provides DSA port index via the
 * DMA descriptor. Report DSA tag to the DSA stack
 * via skb dst info.
 */

   u32 sptag = FIELD_GET(QDMA_ETH_RXMSG_SPTAG,
           le32_to_cpu(desc->msg0));

   if (sptag < ARRAY_SIZE(port->dsa_meta) &&
       port->dsa_meta[sptag])
    skb_dst_set_noref(q->skb,
        &port->dsa_meta[sptag]->dst);
  }

  hash = FIELD_GET(AIROHA_RXD4_FOE_ENTRY, msg1);
  if (hash != AIROHA_RXD4_FOE_ENTRY)
   skb_set_hash(q->skb, jhash_1word(hash, 0),
         PKT_HASH_TYPE_L4);

  reason = FIELD_GET(AIROHA_RXD4_PPE_CPU_REASON, msg1);
  if (reason == PPE_CPU_REASON_HIT_UNBIND_RATE_REACHED)
   airoha_ppe_check_skb(eth->ppe, q->skb, hash);

  done++;
  napi_gro_receive(&q->napi, q->skb);
  q->skb = NULL;
  continue;
free_frag:
  if (q->skb) {
   dev_kfree_skb(q->skb);
   q->skb = NULL;
  } else {
   page_pool_put_full_page(q->page_pool, page, true);
  }
 }
 airoha_qdma_fill_rx_queue(q);

 return done;
}

static int airoha_qdma_rx_napi_poll(struct napi_struct *napi, int budget)
{
 struct airoha_queue *q = container_of(napi, struct airoha_queue, napi);
 int cur, done = 0;

 do {
  cur = airoha_qdma_rx_process(q, budget - done);
  done += cur;
 } while (cur && done < budget);

 if (done < budget && napi_complete(napi)) {
  struct airoha_qdma *qdma = q->qdma;
  int i, qid = q - &qdma->q_rx[0];
  int intr_reg = qid < RX_DONE_HIGH_OFFSET ? QDMA_INT_REG_IDX1
        : QDMA_INT_REG_IDX2;

  for (i = 0; i < ARRAY_SIZE(qdma->irq_banks); i++) {
   if (!(BIT(qid) & RX_IRQ_BANK_PIN_MASK(i)))
    continue;

   airoha_qdma_irq_enable(&qdma->irq_banks[i], intr_reg,
            BIT(qid % RX_DONE_HIGH_OFFSET));
  }
 }

 return done;
}

static int airoha_qdma_init_rx_queue(struct airoha_queue *q,
         struct airoha_qdma *qdma, int ndesc)
{
 const struct page_pool_params pp_params = {
  .order = 0,
  .pool_size = 256,
  .flags = PP_FLAG_DMA_MAP | PP_FLAG_DMA_SYNC_DEV,
  .dma_dir = DMA_FROM_DEVICE,
  .max_len = PAGE_SIZE,
  .nid = NUMA_NO_NODE,
  .dev = qdma->eth->dev,
  .napi = &q->napi,
 };
 struct airoha_eth *eth = qdma->eth;
 int qid = q - &qdma->q_rx[0], thr;
 dma_addr_t dma_addr;

 q->buf_size = PAGE_SIZE / 2;
 q->ndesc = ndesc;
 q->qdma = qdma;

 q->entry = devm_kzalloc(eth->dev, q->ndesc * sizeof(*q->entry),
    GFP_KERNEL);
 if (!q->entry)
  return -ENOMEM;

 q->page_pool = page_pool_create(&pp_params);
 if (IS_ERR(q->page_pool)) {
  int err = PTR_ERR(q->page_pool);

  q->page_pool = NULL;
  return err;
 }

 q->desc = dmam_alloc_coherent(eth->dev, q->ndesc * sizeof(*q->desc),
          &dma_addr, GFP_KERNEL);
 if (!q->desc)
  return -ENOMEM;

 netif_napi_add(eth->napi_dev, &q->napi, airoha_qdma_rx_napi_poll);

 airoha_qdma_wr(qdma, REG_RX_RING_BASE(qid), dma_addr);
 airoha_qdma_rmw(qdma, REG_RX_RING_SIZE(qid),
   RX_RING_SIZE_MASK,
   FIELD_PREP(RX_RING_SIZE_MASK, ndesc));

 thr = clamp(ndesc >> 3, 1, 32);
 airoha_qdma_rmw(qdma, REG_RX_RING_SIZE(qid), RX_RING_THR_MASK,
   FIELD_PREP(RX_RING_THR_MASK, thr));
 airoha_qdma_rmw(qdma, REG_RX_DMA_IDX(qid), RX_RING_DMA_IDX_MASK,
   FIELD_PREP(RX_RING_DMA_IDX_MASK, q->head));
 airoha_qdma_set(qdma, REG_RX_SCATTER_CFG(qid), RX_RING_SG_EN_MASK);

 airoha_qdma_fill_rx_queue(q);

 return 0;
}

static void airoha_qdma_cleanup_rx_queue(struct airoha_queue *q)
{
 struct airoha_eth *eth = q->qdma->eth;

 while (q->queued) {
  struct airoha_queue_entry *e = &q->entry[q->tail];
  struct page *page = virt_to_head_page(e->buf);

  dma_sync_single_for_cpu(eth->dev, e->dma_addr, e->dma_len,
     page_pool_get_dma_dir(q->page_pool));
  page_pool_put_full_page(q->page_pool, page, false);
  q->tail = (q->tail + 1) % q->ndesc;
  q->queued--;
 }
}

static int airoha_qdma_init_rx(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < ARRAY_SIZE(qdma->q_rx); i++) {
  int err;

  if (!(RX_DONE_INT_MASK & BIT(i))) {
   /* rx-queue not binded to irq */
   continue;
  }

  err = airoha_qdma_init_rx_queue(&qdma->q_rx[i], qdma,
      RX_DSCP_NUM(i));
  if (err)
   return err;
 }

 return 0;
}

static int airoha_qdma_tx_napi_poll(struct napi_struct *napi, int budget)
{
 struct airoha_tx_irq_queue *irq_q;
 int id, done = 0, irq_queued;
 struct airoha_qdma *qdma;
 struct airoha_eth *eth;
 u32 status, head;

 irq_q = container_of(napi, struct airoha_tx_irq_queue, napi);
 qdma = irq_q->qdma;
 id = irq_q - &qdma->q_tx_irq[0];
 eth = qdma->eth;

 status = airoha_qdma_rr(qdma, REG_IRQ_STATUS(id));
 head = FIELD_GET(IRQ_HEAD_IDX_MASK, status);
 head = head % irq_q->size;
 irq_queued = FIELD_GET(IRQ_ENTRY_LEN_MASK, status);

 while (irq_queued > 0 && done < budget) {
  u32 qid, val = irq_q->q[head];
  struct airoha_qdma_desc *desc;
  struct airoha_queue_entry *e;
  struct airoha_queue *q;
  u32 index, desc_ctrl;
  struct sk_buff *skb;

  if (val == 0xff)
   break;

  irq_q->q[head] = 0xff; /* mark as done */
  head = (head + 1) % irq_q->size;
  irq_queued--;
  done++;

  qid = FIELD_GET(IRQ_RING_IDX_MASK, val);
  if (qid >= ARRAY_SIZE(qdma->q_tx))
   continue;

  q = &qdma->q_tx[qid];
  if (!q->ndesc)
   continue;

  index = FIELD_GET(IRQ_DESC_IDX_MASK, val);
  if (index >= q->ndesc)
   continue;

  spin_lock_bh(&q->lock);

  if (!q->queued)
   goto unlock;

  desc = &q->desc[index];
  desc_ctrl = le32_to_cpu(desc->ctrl);

  if (!(desc_ctrl & QDMA_DESC_DONE_MASK) &&
      !(desc_ctrl & QDMA_DESC_DROP_MASK))
   goto unlock;

  e = &q->entry[index];
  skb = e->skb;

  dma_unmap_single(eth->dev, e->dma_addr, e->dma_len,
     DMA_TO_DEVICE);
  memset(e, 0, sizeof(*e));
  WRITE_ONCE(desc->msg0, 0);
  WRITE_ONCE(desc->msg1, 0);
  q->queued--;

  /* completion ring can report out-of-order indexes if hw QoS
 * is enabled and packets with different priority are queued
 * to same DMA ring. Take into account possible out-of-order
 * reports incrementing DMA ring tail pointer
 */

  while (q->tail != q->head && !q->entry[q->tail].dma_addr)
   q->tail = (q->tail + 1) % q->ndesc;

  if (skb) {
   u16 queue = skb_get_queue_mapping(skb);
   struct netdev_queue *txq;

   txq = netdev_get_tx_queue(skb->dev, queue);
   netdev_tx_completed_queue(txq, 1, skb->len);
   if (netif_tx_queue_stopped(txq) &&
       q->ndesc - q->queued >= q->free_thr)
    netif_tx_wake_queue(txq);

   dev_kfree_skb_any(skb);
  }
unlock:
  spin_unlock_bh(&q->lock);
 }

 if (done) {
  int i, len = done >> 7;

  for (i = 0; i < len; i++)
   airoha_qdma_rmw(qdma, REG_IRQ_CLEAR_LEN(id),
     IRQ_CLEAR_LEN_MASK, 0x80);
  airoha_qdma_rmw(qdma, REG_IRQ_CLEAR_LEN(id),
    IRQ_CLEAR_LEN_MASK, (done & 0x7f));
 }

 if (done < budget && napi_complete(napi))
  airoha_qdma_irq_enable(&qdma->irq_banks[0], QDMA_INT_REG_IDX0,
           TX_DONE_INT_MASK(id));

 return done;
}

static int airoha_qdma_init_tx_queue(struct airoha_queue *q,
         struct airoha_qdma *qdma, int size)
{
 struct airoha_eth *eth = qdma->eth;
 int i, qid = q - &qdma->q_tx[0];
 dma_addr_t dma_addr;

 spin_lock_init(&q->lock);
 q->ndesc = size;
 q->qdma = qdma;
 q->free_thr = 1 + MAX_SKB_FRAGS;

 q->entry = devm_kzalloc(eth->dev, q->ndesc * sizeof(*q->entry),
    GFP_KERNEL);
 if (!q->entry)
  return -ENOMEM;

 q->desc = dmam_alloc_coherent(eth->dev, q->ndesc * sizeof(*q->desc),
          &dma_addr, GFP_KERNEL);
 if (!q->desc)
  return -ENOMEM;

 for (i = 0; i < q->ndesc; i++) {
  u32 val;

  val = FIELD_PREP(QDMA_DESC_DONE_MASK, 1);
  WRITE_ONCE(q->desc[i].ctrl, cpu_to_le32(val));
 }

 /* xmit ring drop default setting */
 airoha_qdma_set(qdma, REG_TX_RING_BLOCKING(qid),
   TX_RING_IRQ_BLOCKING_TX_DROP_EN_MASK);

 airoha_qdma_wr(qdma, REG_TX_RING_BASE(qid), dma_addr);
 airoha_qdma_rmw(qdma, REG_TX_CPU_IDX(qid), TX_RING_CPU_IDX_MASK,
   FIELD_PREP(TX_RING_CPU_IDX_MASK, q->head));
 airoha_qdma_rmw(qdma, REG_TX_DMA_IDX(qid), TX_RING_DMA_IDX_MASK,
   FIELD_PREP(TX_RING_DMA_IDX_MASK, q->head));

 return 0;
}

static int airoha_qdma_tx_irq_init(struct airoha_tx_irq_queue *irq_q,
       struct airoha_qdma *qdma, int size)
{
 int id = irq_q - &qdma->q_tx_irq[0];
 struct airoha_eth *eth = qdma->eth;
 dma_addr_t dma_addr;

 netif_napi_add_tx(eth->napi_dev, &irq_q->napi,
     airoha_qdma_tx_napi_poll);
 irq_q->q = dmam_alloc_coherent(eth->dev, size * sizeof(u32),
           &dma_addr, GFP_KERNEL);
 if (!irq_q->q)
  return -ENOMEM;

 memset(irq_q->q, 0xff, size * sizeof(u32));
 irq_q->size = size;
 irq_q->qdma = qdma;

 airoha_qdma_wr(qdma, REG_TX_IRQ_BASE(id), dma_addr);
 airoha_qdma_rmw(qdma, REG_TX_IRQ_CFG(id), TX_IRQ_DEPTH_MASK,
   FIELD_PREP(TX_IRQ_DEPTH_MASK, size));
 airoha_qdma_rmw(qdma, REG_TX_IRQ_CFG(id), TX_IRQ_THR_MASK,
   FIELD_PREP(TX_IRQ_THR_MASK, 1));

 return 0;
}

static int airoha_qdma_init_tx(struct airoha_qdma *qdma)
{
 int i, err;

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx_irq); i++) {
  err = airoha_qdma_tx_irq_init(&qdma->q_tx_irq[i], qdma,
           IRQ_QUEUE_LEN(i));
  if (err)
   return err;
 }

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx); i++) {
  err = airoha_qdma_init_tx_queue(&qdma->q_tx[i], qdma,
      TX_DSCP_NUM);
  if (err)
   return err;
 }

 return 0;
}

static void airoha_qdma_cleanup_tx_queue(struct airoha_queue *q)
{
 struct airoha_eth *eth = q->qdma->eth;

 spin_lock_bh(&q->lock);
 while (q->queued) {
  struct airoha_queue_entry *e = &q->entry[q->tail];

  dma_unmap_single(eth->dev, e->dma_addr, e->dma_len,
     DMA_TO_DEVICE);
  dev_kfree_skb_any(e->skb);
  e->skb = NULL;

  q->tail = (q->tail + 1) % q->ndesc;
  q->queued--;
 }
 spin_unlock_bh(&q->lock);
}

static int airoha_qdma_init_hfwd_queues(struct airoha_qdma *qdma)
{
 int size, index, num_desc = HW_DSCP_NUM;
 struct airoha_eth *eth = qdma->eth;
 int id = qdma - ð->qdma[0];
 u32 status, buf_size;
 dma_addr_t dma_addr;
 const char *name;

 name = devm_kasprintf(eth->dev, GFP_KERNEL, "qdma%d-buf", id);
 if (!name)
  return -ENOMEM;

 buf_size = id ? AIROHA_MAX_PACKET_SIZE / 2 : AIROHA_MAX_PACKET_SIZE;
 index = of_property_match_string(eth->dev->of_node,
      "memory-region-names", name);
 if (index >= 0) {
  struct reserved_mem *rmem;
  struct device_node *np;

  /* Consume reserved memory for hw forwarding buffers queue if
 * available in the DTS
 */

  np = of_parse_phandle(eth->dev->of_node, "memory-region",
          index);
  if (!np)
   return -ENODEV;

  rmem = of_reserved_mem_lookup(np);
  of_node_put(np);
  dma_addr = rmem->base;
  /* Compute the number of hw descriptors according to the
 * reserved memory size and the payload buffer size
 */

  num_desc = div_u64(rmem->size, buf_size);
 } else {
  size = buf_size * num_desc;
  if (!dmam_alloc_coherent(eth->dev, size, &dma_addr,
      GFP_KERNEL))
   return -ENOMEM;
 }

 airoha_qdma_wr(qdma, REG_FWD_BUF_BASE, dma_addr);

 size = num_desc * sizeof(struct airoha_qdma_fwd_desc);
 if (!dmam_alloc_coherent(eth->dev, size, &dma_addr, GFP_KERNEL))
  return -ENOMEM;

 airoha_qdma_wr(qdma, REG_FWD_DSCP_BASE, dma_addr);
 /* QDMA0: 2KB. QDMA1: 1KB */
 airoha_qdma_rmw(qdma, REG_HW_FWD_DSCP_CFG,
   HW_FWD_DSCP_PAYLOAD_SIZE_MASK,
   FIELD_PREP(HW_FWD_DSCP_PAYLOAD_SIZE_MASK, !!id));
 airoha_qdma_rmw(qdma, REG_FWD_DSCP_LOW_THR, FWD_DSCP_LOW_THR_MASK,
   FIELD_PREP(FWD_DSCP_LOW_THR_MASK, 128));
 airoha_qdma_rmw(qdma, REG_LMGR_INIT_CFG,
   LMGR_INIT_START | LMGR_SRAM_MODE_MASK |
   HW_FWD_DESC_NUM_MASK,
   FIELD_PREP(HW_FWD_DESC_NUM_MASK, num_desc) |
   LMGR_INIT_START | LMGR_SRAM_MODE_MASK);

 return read_poll_timeout(airoha_qdma_rr, status,
     !(status & LMGR_INIT_START), USEC_PER_MSEC,
     30 * USEC_PER_MSEC, true, qdma,
     REG_LMGR_INIT_CFG);
}

static void airoha_qdma_init_qos(struct airoha_qdma *qdma)
{
 airoha_qdma_clear(qdma, REG_TXWRR_MODE_CFG, TWRR_WEIGHT_SCALE_MASK);
 airoha_qdma_set(qdma, REG_TXWRR_MODE_CFG, TWRR_WEIGHT_BASE_MASK);

 airoha_qdma_clear(qdma, REG_PSE_BUF_USAGE_CFG,
     PSE_BUF_ESTIMATE_EN_MASK);

 airoha_qdma_set(qdma, REG_EGRESS_RATE_METER_CFG,
   EGRESS_RATE_METER_EN_MASK |
   EGRESS_RATE_METER_EQ_RATE_EN_MASK);
 /* 2047us x 31 = 63.457ms */
 airoha_qdma_rmw(qdma, REG_EGRESS_RATE_METER_CFG,
   EGRESS_RATE_METER_WINDOW_SZ_MASK,
   FIELD_PREP(EGRESS_RATE_METER_WINDOW_SZ_MASK, 0x1f));
 airoha_qdma_rmw(qdma, REG_EGRESS_RATE_METER_CFG,
   EGRESS_RATE_METER_TIMESLICE_MASK,
   FIELD_PREP(EGRESS_RATE_METER_TIMESLICE_MASK, 0x7ff));

 /* ratelimit init */
 airoha_qdma_set(qdma, REG_GLB_TRTCM_CFG, GLB_TRTCM_EN_MASK);
 /* fast-tick 25us */
 airoha_qdma_rmw(qdma, REG_GLB_TRTCM_CFG, GLB_FAST_TICK_MASK,
   FIELD_PREP(GLB_FAST_TICK_MASK, 25));
 airoha_qdma_rmw(qdma, REG_GLB_TRTCM_CFG, GLB_SLOW_TICK_RATIO_MASK,
   FIELD_PREP(GLB_SLOW_TICK_RATIO_MASK, 40));

 airoha_qdma_set(qdma, REG_EGRESS_TRTCM_CFG, EGRESS_TRTCM_EN_MASK);
 airoha_qdma_rmw(qdma, REG_EGRESS_TRTCM_CFG, EGRESS_FAST_TICK_MASK,
   FIELD_PREP(EGRESS_FAST_TICK_MASK, 25));
 airoha_qdma_rmw(qdma, REG_EGRESS_TRTCM_CFG,
   EGRESS_SLOW_TICK_RATIO_MASK,
   FIELD_PREP(EGRESS_SLOW_TICK_RATIO_MASK, 40));

 airoha_qdma_set(qdma, REG_INGRESS_TRTCM_CFG, INGRESS_TRTCM_EN_MASK);
 airoha_qdma_clear(qdma, REG_INGRESS_TRTCM_CFG,
     INGRESS_TRTCM_MODE_MASK);
 airoha_qdma_rmw(qdma, REG_INGRESS_TRTCM_CFG, INGRESS_FAST_TICK_MASK,
   FIELD_PREP(INGRESS_FAST_TICK_MASK, 125));
 airoha_qdma_rmw(qdma, REG_INGRESS_TRTCM_CFG,
   INGRESS_SLOW_TICK_RATIO_MASK,
   FIELD_PREP(INGRESS_SLOW_TICK_RATIO_MASK, 8));

 airoha_qdma_set(qdma, REG_SLA_TRTCM_CFG, SLA_TRTCM_EN_MASK);
 airoha_qdma_rmw(qdma, REG_SLA_TRTCM_CFG, SLA_FAST_TICK_MASK,
   FIELD_PREP(SLA_FAST_TICK_MASK, 25));
 airoha_qdma_rmw(qdma, REG_SLA_TRTCM_CFG, SLA_SLOW_TICK_RATIO_MASK,
   FIELD_PREP(SLA_SLOW_TICK_RATIO_MASK, 40));
}

static void airoha_qdma_init_qos_stats(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < AIROHA_NUM_QOS_CHANNELS; i++) {
  /* Tx-cpu transferred count */
  airoha_qdma_wr(qdma, REG_CNTR_VAL(i << 1), 0);
  airoha_qdma_wr(qdma, REG_CNTR_CFG(i << 1),
          CNTR_EN_MASK | CNTR_ALL_QUEUE_EN_MASK |
          CNTR_ALL_DSCP_RING_EN_MASK |
          FIELD_PREP(CNTR_CHAN_MASK, i));
  /* Tx-fwd transferred count */
  airoha_qdma_wr(qdma, REG_CNTR_VAL((i << 1) + 1), 0);
  airoha_qdma_wr(qdma, REG_CNTR_CFG(i << 1),
          CNTR_EN_MASK | CNTR_ALL_QUEUE_EN_MASK |
          CNTR_ALL_DSCP_RING_EN_MASK |
          FIELD_PREP(CNTR_SRC_MASK, 1) |
          FIELD_PREP(CNTR_CHAN_MASK, i));
 }
}

static int airoha_qdma_hw_init(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < ARRAY_SIZE(qdma->irq_banks); i++) {
  /* clear pending irqs */
  airoha_qdma_wr(qdma, REG_INT_STATUS(i), 0xffffffff);
  /* setup rx irqs */
  airoha_qdma_irq_enable(&qdma->irq_banks[i], QDMA_INT_REG_IDX0,
           INT_RX0_MASK(RX_IRQ_BANK_PIN_MASK(i)));
  airoha_qdma_irq_enable(&qdma->irq_banks[i], QDMA_INT_REG_IDX1,
           INT_RX1_MASK(RX_IRQ_BANK_PIN_MASK(i)));
  airoha_qdma_irq_enable(&qdma->irq_banks[i], QDMA_INT_REG_IDX2,
           INT_RX2_MASK(RX_IRQ_BANK_PIN_MASK(i)));
  airoha_qdma_irq_enable(&qdma->irq_banks[i], QDMA_INT_REG_IDX3,
           INT_RX3_MASK(RX_IRQ_BANK_PIN_MASK(i)));
 }
 /* setup tx irqs */
 airoha_qdma_irq_enable(&qdma->irq_banks[0], QDMA_INT_REG_IDX0,
          TX_COHERENT_LOW_INT_MASK | INT_TX_MASK);
 airoha_qdma_irq_enable(&qdma->irq_banks[0], QDMA_INT_REG_IDX4,
          TX_COHERENT_HIGH_INT_MASK);

 /* setup irq binding */
 for (i = 0; i < ARRAY_SIZE(qdma->q_tx); i++) {
  if (!qdma->q_tx[i].ndesc)
   continue;

  if (TX_RING_IRQ_BLOCKING_MAP_MASK & BIT(i))
   airoha_qdma_set(qdma, REG_TX_RING_BLOCKING(i),
     TX_RING_IRQ_BLOCKING_CFG_MASK);
  else
   airoha_qdma_clear(qdma, REG_TX_RING_BLOCKING(i),
       TX_RING_IRQ_BLOCKING_CFG_MASK);
 }

 airoha_qdma_wr(qdma, REG_QDMA_GLOBAL_CFG,
         FIELD_PREP(GLOBAL_CFG_DMA_PREFERENCE_MASK, 3) |
         GLOBAL_CFG_CPU_TXR_RR_MASK |
         GLOBAL_CFG_PAYLOAD_BYTE_SWAP_MASK |
         GLOBAL_CFG_MULTICAST_MODIFY_FP_MASK |
         GLOBAL_CFG_MULTICAST_EN_MASK |
         GLOBAL_CFG_IRQ0_EN_MASK | GLOBAL_CFG_IRQ1_EN_MASK |
         GLOBAL_CFG_TX_WB_DONE_MASK |
         FIELD_PREP(GLOBAL_CFG_MAX_ISSUE_NUM_MASK, 2));

 airoha_qdma_init_qos(qdma);

 /* disable qdma rx delay interrupt */
 for (i = 0; i < ARRAY_SIZE(qdma->q_rx); i++) {
  if (!qdma->q_rx[i].ndesc)
   continue;

  airoha_qdma_clear(qdma, REG_RX_DELAY_INT_IDX(i),
      RX_DELAY_INT_MASK);
 }

 airoha_qdma_set(qdma, REG_TXQ_CNGST_CFG,
   TXQ_CNGST_DROP_EN | TXQ_CNGST_DEI_DROP_EN);
 airoha_qdma_init_qos_stats(qdma);

 return 0;
}

static irqreturn_t airoha_irq_handler(int irq, void *dev_instance)
{
 struct airoha_irq_bank *irq_bank = dev_instance;
 struct airoha_qdma *qdma = irq_bank->qdma;
 u32 rx_intr_mask = 0, rx_intr1, rx_intr2;
 u32 intr[ARRAY_SIZE(irq_bank->irqmask)];
 int i;

 for (i = 0; i < ARRAY_SIZE(intr); i++) {
  intr[i] = airoha_qdma_rr(qdma, REG_INT_STATUS(i));
  intr[i] &= irq_bank->irqmask[i];
  airoha_qdma_wr(qdma, REG_INT_STATUS(i), intr[i]);
 }

 if (!test_bit(DEV_STATE_INITIALIZED, &qdma->eth->state))
  return IRQ_NONE;

 rx_intr1 = intr[1] & RX_DONE_LOW_INT_MASK;
 if (rx_intr1) {
  airoha_qdma_irq_disable(irq_bank, QDMA_INT_REG_IDX1, rx_intr1);
  rx_intr_mask |= rx_intr1;
 }

 rx_intr2 = intr[2] & RX_DONE_HIGH_INT_MASK;
 if (rx_intr2) {
  airoha_qdma_irq_disable(irq_bank, QDMA_INT_REG_IDX2, rx_intr2);
  rx_intr_mask |= (rx_intr2 << 16);
 }

 for (i = 0; rx_intr_mask && i < ARRAY_SIZE(qdma->q_rx); i++) {
  if (!qdma->q_rx[i].ndesc)
   continue;

  if (rx_intr_mask & BIT(i))
   napi_schedule(&qdma->q_rx[i].napi);
 }

 if (intr[0] & INT_TX_MASK) {
  for (i = 0; i < ARRAY_SIZE(qdma->q_tx_irq); i++) {
   if (!(intr[0] & TX_DONE_INT_MASK(i)))
    continue;

   airoha_qdma_irq_disable(irq_bank, QDMA_INT_REG_IDX0,
      TX_DONE_INT_MASK(i));
   napi_schedule(&qdma->q_tx_irq[i].napi);
  }
 }

 return IRQ_HANDLED;
}

static int airoha_qdma_init_irq_banks(struct platform_device *pdev,
          struct airoha_qdma *qdma)
{
 struct airoha_eth *eth = qdma->eth;
 int i, id = qdma - ð->qdma[0];

 for (i = 0; i < ARRAY_SIZE(qdma->irq_banks); i++) {
  struct airoha_irq_bank *irq_bank = &qdma->irq_banks[i];
  int err, irq_index = 4 * id + i;
  const char *name;

  spin_lock_init(&irq_bank->irq_lock);
  irq_bank->qdma = qdma;

  irq_bank->irq = platform_get_irq(pdev, irq_index);
  if (irq_bank->irq < 0)
   return irq_bank->irq;

  name = devm_kasprintf(eth->dev, GFP_KERNEL,
          KBUILD_MODNAME ".%d", irq_index);
  if (!name)
   return -ENOMEM;

  err = devm_request_irq(eth->dev, irq_bank->irq,
           airoha_irq_handler, IRQF_SHARED, name,
           irq_bank);
  if (err)
   return err;
 }

 return 0;
}

static int airoha_qdma_init(struct platform_device *pdev,
       struct airoha_eth *eth,
       struct airoha_qdma *qdma)
{
 int err, id = qdma - ð->qdma[0];
 const char *res;

 qdma->eth = eth;
 res = devm_kasprintf(eth->dev, GFP_KERNEL, "qdma%d", id);
 if (!res)
  return -ENOMEM;

 qdma->regs = devm_platform_ioremap_resource_byname(pdev, res);
 if (IS_ERR(qdma->regs))
  return dev_err_probe(eth->dev, PTR_ERR(qdma->regs),
         "failed to iomap qdma%d regs\n", id);

 err = airoha_qdma_init_irq_banks(pdev, qdma);
 if (err)
  return err;

 err = airoha_qdma_init_rx(qdma);
 if (err)
  return err;

 err = airoha_qdma_init_tx(qdma);
 if (err)
  return err;

 err = airoha_qdma_init_hfwd_queues(qdma);
 if (err)
  return err;

 return airoha_qdma_hw_init(qdma);
}

static int airoha_hw_init(struct platform_device *pdev,
     struct airoha_eth *eth)
{
 int err, i;

 /* disable xsi */
 err = reset_control_bulk_assert(ARRAY_SIZE(eth->xsi_rsts),
     eth->xsi_rsts);
 if (err)
  return err;

 err = reset_control_bulk_assert(ARRAY_SIZE(eth->rsts), eth->rsts);
 if (err)
  return err;

 msleep(20);
 err = reset_control_bulk_deassert(ARRAY_SIZE(eth->rsts), eth->rsts);
 if (err)
  return err;

 msleep(20);
 err = airoha_fe_init(eth);
 if (err)
  return err;

 for (i = 0; i < ARRAY_SIZE(eth->qdma); i++) {
  err = airoha_qdma_init(pdev, eth, ð->qdma[i]);
  if (err)
   return err;
 }

 err = airoha_ppe_init(eth);
 if (err)
  return err;

 set_bit(DEV_STATE_INITIALIZED, ð->state);

 return 0;
}

static void airoha_hw_cleanup(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < ARRAY_SIZE(qdma->q_rx); i++) {
  if (!qdma->q_rx[i].ndesc)
   continue;

  netif_napi_del(&qdma->q_rx[i].napi);
  airoha_qdma_cleanup_rx_queue(&qdma->q_rx[i]);
  if (qdma->q_rx[i].page_pool)
   page_pool_destroy(qdma->q_rx[i].page_pool);
 }

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx_irq); i++)
  netif_napi_del(&qdma->q_tx_irq[i].napi);

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx); i++) {
  if (!qdma->q_tx[i].ndesc)
   continue;

  airoha_qdma_cleanup_tx_queue(&qdma->q_tx[i]);
 }
}

static void airoha_qdma_start_napi(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx_irq); i++)
  napi_enable(&qdma->q_tx_irq[i].napi);

 for (i = 0; i < ARRAY_SIZE(qdma->q_rx); i++) {
  if (!qdma->q_rx[i].ndesc)
   continue;

  napi_enable(&qdma->q_rx[i].napi);
 }
}

static void airoha_qdma_stop_napi(struct airoha_qdma *qdma)
{
 int i;

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx_irq); i++)
  napi_disable(&qdma->q_tx_irq[i].napi);

 for (i = 0; i < ARRAY_SIZE(qdma->q_rx); i++) {
  if (!qdma->q_rx[i].ndesc)
   continue;

  napi_disable(&qdma->q_rx[i].napi);
 }
}

static void airoha_update_hw_stats(struct airoha_gdm_port *port)
{
 struct airoha_eth *eth = port->qdma->eth;
 u32 val, i = 0;

 spin_lock(&port->stats.lock);
 u64_stats_update_begin(&port->stats.syncp);

 /* TX */
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_OK_PKT_CNT_H(port->id));
 port->stats.tx_ok_pkts += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_OK_PKT_CNT_L(port->id));
 port->stats.tx_ok_pkts += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_OK_BYTE_CNT_H(port->id));
 port->stats.tx_ok_bytes += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_OK_BYTE_CNT_L(port->id));
 port->stats.tx_ok_bytes += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_DROP_CNT(port->id));
 port->stats.tx_drops += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_BC_CNT(port->id));
 port->stats.tx_broadcast += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_MC_CNT(port->id));
 port->stats.tx_multicast += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_RUNT_CNT(port->id));
 port->stats.tx_len[i] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_E64_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_E64_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L64_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L64_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L127_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L127_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L255_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L255_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L511_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L511_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L1023_CNT_H(port->id));
 port->stats.tx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_L1023_CNT_L(port->id));
 port->stats.tx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_TX_ETH_LONG_CNT(port->id));
 port->stats.tx_len[i++] += val;

 /* RX */
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_OK_PKT_CNT_H(port->id));
 port->stats.rx_ok_pkts += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_OK_PKT_CNT_L(port->id));
 port->stats.rx_ok_pkts += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_OK_BYTE_CNT_H(port->id));
 port->stats.rx_ok_bytes += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_OK_BYTE_CNT_L(port->id));
 port->stats.rx_ok_bytes += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_DROP_CNT(port->id));
 port->stats.rx_drops += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_BC_CNT(port->id));
 port->stats.rx_broadcast += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_MC_CNT(port->id));
 port->stats.rx_multicast += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ERROR_DROP_CNT(port->id));
 port->stats.rx_errors += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_CRC_ERR_CNT(port->id));
 port->stats.rx_crc_error += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_OVERFLOW_DROP_CNT(port->id));
 port->stats.rx_over_errors += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_FRAG_CNT(port->id));
 port->stats.rx_fragment += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_JABBER_CNT(port->id));
 port->stats.rx_jabber += val;

 i = 0;
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_RUNT_CNT(port->id));
 port->stats.rx_len[i] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_E64_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_E64_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L64_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L64_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L127_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L127_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L255_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L255_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L511_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L511_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L1023_CNT_H(port->id));
 port->stats.rx_len[i] += ((u64)val << 32);
 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_L1023_CNT_L(port->id));
 port->stats.rx_len[i++] += val;

 val = airoha_fe_rr(eth, REG_FE_GDM_RX_ETH_LONG_CNT(port->id));
 port->stats.rx_len[i++] += val;

 /* reset mib counters */
 airoha_fe_set(eth, REG_FE_GDM_MIB_CLEAR(port->id),
        FE_GDM_MIB_RX_CLEAR_MASK | FE_GDM_MIB_TX_CLEAR_MASK);

 u64_stats_update_end(&port->stats.syncp);
 spin_unlock(&port->stats.lock);
}

static int airoha_dev_open(struct net_device *dev)
{
 int err, len = ETH_HLEN + dev->mtu + ETH_FCS_LEN;
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_qdma *qdma = port->qdma;

 netif_tx_start_all_queues(dev);
 err = airoha_set_vip_for_gdm_port(port, true);
 if (err)
  return err;

 if (netdev_uses_dsa(dev))
  airoha_fe_set(qdma->eth, REG_GDM_INGRESS_CFG(port->id),
         GDM_STAG_EN_MASK);
 else
  airoha_fe_clear(qdma->eth, REG_GDM_INGRESS_CFG(port->id),
    GDM_STAG_EN_MASK);

 airoha_fe_rmw(qdma->eth, REG_GDM_LEN_CFG(port->id),
        GDM_SHORT_LEN_MASK | GDM_LONG_LEN_MASK,
        FIELD_PREP(GDM_SHORT_LEN_MASK, 60) |
        FIELD_PREP(GDM_LONG_LEN_MASK, len));

 airoha_qdma_set(qdma, REG_QDMA_GLOBAL_CFG,
   GLOBAL_CFG_TX_DMA_EN_MASK |
   GLOBAL_CFG_RX_DMA_EN_MASK);
 atomic_inc(&qdma->users);

 return 0;
}

static int airoha_dev_stop(struct net_device *dev)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_qdma *qdma = port->qdma;
 int i, err;

 netif_tx_disable(dev);
 err = airoha_set_vip_for_gdm_port(port, false);
 if (err)
  return err;

 for (i = 0; i < ARRAY_SIZE(qdma->q_tx); i++)
  netdev_tx_reset_subqueue(dev, i);

 if (atomic_dec_and_test(&qdma->users)) {
  airoha_qdma_clear(qdma, REG_QDMA_GLOBAL_CFG,
      GLOBAL_CFG_TX_DMA_EN_MASK |
      GLOBAL_CFG_RX_DMA_EN_MASK);

  for (i = 0; i < ARRAY_SIZE(qdma->q_tx); i++) {
   if (!qdma->q_tx[i].ndesc)
    continue;

   airoha_qdma_cleanup_tx_queue(&qdma->q_tx[i]);
  }
 }

 return 0;
}

static int airoha_dev_set_macaddr(struct net_device *dev, void *p)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 int err;

 err = eth_mac_addr(dev, p);
 if (err)
  return err;

 airoha_set_macaddr(port, dev->dev_addr);

 return 0;
}

static void airhoha_set_gdm2_loopback(struct airoha_gdm_port *port)
{
 u32 pse_port = port->id == 3 ? FE_PSE_PORT_GDM3 : FE_PSE_PORT_GDM4;
 struct airoha_eth *eth = port->qdma->eth;
 u32 chan = port->id == 3 ? 4 : 0;

 /* Forward the traffic to the proper GDM port */
 airoha_set_gdm_port_fwd_cfg(eth, REG_GDM_FWD_CFG(2), pse_port);
 airoha_fe_clear(eth, REG_GDM_FWD_CFG(2), GDM_STRIP_CRC);

 /* Enable GDM2 loopback */
 airoha_fe_wr(eth, REG_GDM_TXCHN_EN(2), 0xffffffff);
 airoha_fe_wr(eth, REG_GDM_RXCHN_EN(2), 0xffff);
 airoha_fe_rmw(eth, REG_GDM_LPBK_CFG(2),
        LPBK_CHAN_MASK | LPBK_MODE_MASK | LPBK_EN_MASK,
        FIELD_PREP(LPBK_CHAN_MASK, chan) |
        LBK_GAP_MODE_MASK | LBK_LEN_MODE_MASK |
        LBK_CHAN_MODE_MASK | LPBK_EN_MASK);
 airoha_fe_rmw(eth, REG_GDM_LEN_CFG(2),
        GDM_SHORT_LEN_MASK | GDM_LONG_LEN_MASK,
        FIELD_PREP(GDM_SHORT_LEN_MASK, 60) |
        FIELD_PREP(GDM_LONG_LEN_MASK, AIROHA_MAX_MTU));

 /* Disable VIP and IFC for GDM2 */
 airoha_fe_clear(eth, REG_FE_VIP_PORT_EN, BIT(2));
 airoha_fe_clear(eth, REG_FE_IFC_PORT_EN, BIT(2));

 if (port->id == 3) {
  /* FIXME: handle XSI_PCE1_PORT */
  airoha_fe_rmw(eth, REG_FE_WAN_PORT,
         WAN1_EN_MASK | WAN1_MASK | WAN0_MASK,
         FIELD_PREP(WAN0_MASK, HSGMII_LAN_PCIE0_SRCPORT));
  airoha_fe_rmw(eth,
         REG_SP_DFT_CPORT(HSGMII_LAN_PCIE0_SRCPORT >> 3),
         SP_CPORT_PCIE0_MASK,
         FIELD_PREP(SP_CPORT_PCIE0_MASK,
      FE_PSE_PORT_CDM2));
 } else {
  /* FIXME: handle XSI_USB_PORT */
  airoha_fe_rmw(eth, REG_SRC_PORT_FC_MAP6,
         FC_ID_OF_SRC_PORT24_MASK,
         FIELD_PREP(FC_ID_OF_SRC_PORT24_MASK, 2));
  airoha_fe_rmw(eth, REG_FE_WAN_PORT,
         WAN1_EN_MASK | WAN1_MASK | WAN0_MASK,
         FIELD_PREP(WAN0_MASK, HSGMII_LAN_ETH_SRCPORT));
  airoha_fe_rmw(eth,
         REG_SP_DFT_CPORT(HSGMII_LAN_ETH_SRCPORT >> 3),
         SP_CPORT_ETH_MASK,
         FIELD_PREP(SP_CPORT_ETH_MASK, FE_PSE_PORT_CDM2));
 }
}

static int airoha_dev_init(struct net_device *dev)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_eth *eth = port->qdma->eth;
 u32 pse_port;

 airoha_set_macaddr(port, dev->dev_addr);

 switch (port->id) {
 case 3:
 case 4:
  /* If GDM2 is active we can't enable loopback */
  if (!eth->ports[1])
   airhoha_set_gdm2_loopback(port);
  fallthrough;
 case 2:
  pse_port = FE_PSE_PORT_PPE2;
  break;
 default:
  pse_port = FE_PSE_PORT_PPE1;
  break;
 }

 airoha_set_gdm_port_fwd_cfg(eth, REG_GDM_FWD_CFG(port->id), pse_port);

 return 0;
}

static void airoha_dev_get_stats64(struct net_device *dev,
       struct rtnl_link_stats64 *storage)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 unsigned int start;

 airoha_update_hw_stats(port);
 do {
  start = u64_stats_fetch_begin(&port->stats.syncp);
  storage->rx_packets = port->stats.rx_ok_pkts;
  storage->tx_packets = port->stats.tx_ok_pkts;
  storage->rx_bytes = port->stats.rx_ok_bytes;
  storage->tx_bytes = port->stats.tx_ok_bytes;
  storage->multicast = port->stats.rx_multicast;
  storage->rx_errors = port->stats.rx_errors;
  storage->rx_dropped = port->stats.rx_drops;
  storage->tx_dropped = port->stats.tx_drops;
  storage->rx_crc_errors = port->stats.rx_crc_error;
  storage->rx_over_errors = port->stats.rx_over_errors;
 } while (u64_stats_fetch_retry(&port->stats.syncp, start));
}

static int airoha_dev_change_mtu(struct net_device *dev, int mtu)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_eth *eth = port->qdma->eth;
 u32 len = ETH_HLEN + mtu + ETH_FCS_LEN;

 airoha_fe_rmw(eth, REG_GDM_LEN_CFG(port->id),
        GDM_LONG_LEN_MASK,
        FIELD_PREP(GDM_LONG_LEN_MASK, len));
 WRITE_ONCE(dev->mtu, mtu);

 return 0;
}

static u16 airoha_dev_select_queue(struct net_device *dev, struct sk_buff *skb,
       struct net_device *sb_dev)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 int queue, channel;

 /* For dsa device select QoS channel according to the dsa user port
 * index, rely on port id otherwise. Select QoS queue based on the
 * skb priority.
 */

 channel = netdev_uses_dsa(dev) ? skb_get_queue_mapping(skb) : port->id;
 channel = channel % AIROHA_NUM_QOS_CHANNELS;
 queue = (skb->priority - 1) % AIROHA_NUM_QOS_QUEUES; /* QoS queue */
 queue = channel * AIROHA_NUM_QOS_QUEUES + queue;

 return queue < dev->num_tx_queues ? queue : 0;
}

static u32 airoha_get_dsa_tag(struct sk_buff *skb, struct net_device *dev)
{
#if IS_ENABLED(CONFIG_NET_DSA)
 struct ethhdr *ehdr;
 u8 xmit_tpid;
 u16 tag;

 if (!netdev_uses_dsa(dev))
  return 0;

 if (dev->dsa_ptr->tag_ops->proto != DSA_TAG_PROTO_MTK)
  return 0;

 if (skb_cow_head(skb, 0))
  return 0;

 ehdr = (struct ethhdr *)skb->data;
 tag = be16_to_cpu(ehdr->h_proto);
 xmit_tpid = tag >> 8;

 switch (xmit_tpid) {
 case MTK_HDR_XMIT_TAGGED_TPID_8100:
  ehdr->h_proto = cpu_to_be16(ETH_P_8021Q);
  tag &= ~(MTK_HDR_XMIT_TAGGED_TPID_8100 << 8);
  break;
 case MTK_HDR_XMIT_TAGGED_TPID_88A8:
  ehdr->h_proto = cpu_to_be16(ETH_P_8021AD);
  tag &= ~(MTK_HDR_XMIT_TAGGED_TPID_88A8 << 8);
  break;
 default:
  /* PPE module requires untagged DSA packets to work properly,
 * so move DSA tag to DMA descriptor.
 */

  memmove(skb->data + MTK_HDR_LEN, skb->data, 2 * ETH_ALEN);
  __skb_pull(skb, MTK_HDR_LEN);
  break;
 }

 return tag;
#else
 return 0;
#endif
}

static bool airoha_dev_tx_queue_busy(struct airoha_queue *q, u32 nr_frags)
{
 u32 tail = q->tail <= q->head ? q->tail + q->ndesc : q->tail;
 u32 index = q->head + nr_frags;

 /* completion napi can free out-of-order tx descriptors if hw QoS is
 * enabled and packets with different priorities are queued to the same
 * DMA ring. Take into account possible out-of-order reports checking
 * if the tx queue is full using circular buffer head/tail pointers
 * instead of the number of queued packets.
 */

 return index >= tail;
}

static netdev_tx_t airoha_dev_xmit(struct sk_buff *skb,
       struct net_device *dev)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_qdma *qdma = port->qdma;
 u32 nr_frags, tag, msg0, msg1, len;
 struct netdev_queue *txq;
 struct airoha_queue *q;
 void *data;
 int i, qid;
 u16 index;
 u8 fport;

 qid = skb_get_queue_mapping(skb) % ARRAY_SIZE(qdma->q_tx);
 tag = airoha_get_dsa_tag(skb, dev);

 msg0 = FIELD_PREP(QDMA_ETH_TXMSG_CHAN_MASK,
     qid / AIROHA_NUM_QOS_QUEUES) |
        FIELD_PREP(QDMA_ETH_TXMSG_QUEUE_MASK,
     qid % AIROHA_NUM_QOS_QUEUES) |
        FIELD_PREP(QDMA_ETH_TXMSG_SP_TAG_MASK, tag);
 if (skb->ip_summed == CHECKSUM_PARTIAL)
  msg0 |= FIELD_PREP(QDMA_ETH_TXMSG_TCO_MASK, 1) |
   FIELD_PREP(QDMA_ETH_TXMSG_UCO_MASK, 1) |
   FIELD_PREP(QDMA_ETH_TXMSG_ICO_MASK, 1);

 /* TSO: fill MSS info in tcp checksum field */
 if (skb_is_gso(skb)) {
  if (skb_cow_head(skb, 0))
   goto error;

  if (skb_shinfo(skb)->gso_type & (SKB_GSO_TCPV4 |
       SKB_GSO_TCPV6)) {
   __be16 csum = cpu_to_be16(skb_shinfo(skb)->gso_size);

   tcp_hdr(skb)->check = (__force __sum16)csum;
   msg0 |= FIELD_PREP(QDMA_ETH_TXMSG_TSO_MASK, 1);
  }
 }

 fport = port->id == 4 ? FE_PSE_PORT_GDM4 : port->id;
 msg1 = FIELD_PREP(QDMA_ETH_TXMSG_FPORT_MASK, fport) |
        FIELD_PREP(QDMA_ETH_TXMSG_METER_MASK, 0x7f);

 q = &qdma->q_tx[qid];
 if (WARN_ON_ONCE(!q->ndesc))
  goto error;

 spin_lock_bh(&q->lock);

 txq = netdev_get_tx_queue(dev, qid);
 nr_frags = 1 + skb_shinfo(skb)->nr_frags;

 if (airoha_dev_tx_queue_busy(q, nr_frags)) {
  /* not enough space in the queue */
  netif_tx_stop_queue(txq);
  spin_unlock_bh(&q->lock);
  return NETDEV_TX_BUSY;
 }

 len = skb_headlen(skb);
 data = skb->data;
 index = q->head;

 for (i = 0; i < nr_frags; i++) {
  struct airoha_qdma_desc *desc = &q->desc[index];
  struct airoha_queue_entry *e = &q->entry[index];
  skb_frag_t *frag = &skb_shinfo(skb)->frags[i];
  dma_addr_t addr;
  u32 val;

  addr = dma_map_single(dev->dev.parent, data, len,
          DMA_TO_DEVICE);
  if (unlikely(dma_mapping_error(dev->dev.parent, addr)))
   goto error_unmap;

  index = (index + 1) % q->ndesc;

  val = FIELD_PREP(QDMA_DESC_LEN_MASK, len);
  if (i < nr_frags - 1)
   val |= FIELD_PREP(QDMA_DESC_MORE_MASK, 1);
  WRITE_ONCE(desc->ctrl, cpu_to_le32(val));
  WRITE_ONCE(desc->addr, cpu_to_le32(addr));
  val = FIELD_PREP(QDMA_DESC_NEXT_ID_MASK, index);
  WRITE_ONCE(desc->data, cpu_to_le32(val));
  WRITE_ONCE(desc->msg0, cpu_to_le32(msg0));
  WRITE_ONCE(desc->msg1, cpu_to_le32(msg1));
  WRITE_ONCE(desc->msg2, cpu_to_le32(0xffff));

  e->skb = i ? NULL : skb;
  e->dma_addr = addr;
  e->dma_len = len;

  data = skb_frag_address(frag);
  len = skb_frag_size(frag);
 }

 q->head = index;
 q->queued += i;

 skb_tx_timestamp(skb);
 netdev_tx_sent_queue(txq, skb->len);

 if (netif_xmit_stopped(txq) || !netdev_xmit_more())
  airoha_qdma_rmw(qdma, REG_TX_CPU_IDX(qid),
    TX_RING_CPU_IDX_MASK,
    FIELD_PREP(TX_RING_CPU_IDX_MASK, q->head));

 if (q->ndesc - q->queued < q->free_thr)
  netif_tx_stop_queue(txq);

 spin_unlock_bh(&q->lock);

 return NETDEV_TX_OK;

error_unmap:
 for (i--; i >= 0; i--) {
  index = (q->head + i) % q->ndesc;
  dma_unmap_single(dev->dev.parent, q->entry[index].dma_addr,
     q->entry[index].dma_len, DMA_TO_DEVICE);
 }

 spin_unlock_bh(&q->lock);
error:
 dev_kfree_skb_any(skb);
 dev->stats.tx_dropped++;

 return NETDEV_TX_OK;
}

static void airoha_ethtool_get_drvinfo(struct net_device *dev,
           struct ethtool_drvinfo *info)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_eth *eth = port->qdma->eth;

 strscpy(info->driver, eth->dev->driver->name, sizeof(info->driver));
 strscpy(info->bus_info, dev_name(eth->dev), sizeof(info->bus_info));
}

static void airoha_ethtool_get_mac_stats(struct net_device *dev,
      struct ethtool_eth_mac_stats *stats)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 unsigned int start;

 airoha_update_hw_stats(port);
 do {
  start = u64_stats_fetch_begin(&port->stats.syncp);
  stats->MulticastFramesXmittedOK = port->stats.tx_multicast;
  stats->BroadcastFramesXmittedOK = port->stats.tx_broadcast;
  stats->BroadcastFramesReceivedOK = port->stats.rx_broadcast;
 } while (u64_stats_fetch_retry(&port->stats.syncp, start));
}

static const struct ethtool_rmon_hist_range airoha_ethtool_rmon_ranges[] = {
 {    0,    64 },
 {   65,   127 },
 {  128,   255 },
 {  256,   511 },
 {  512,  1023 },
 { 1024,  1518 },
 { 1519, 10239 },
 {},
};

static void
airoha_ethtool_get_rmon_stats(struct net_device *dev,
         struct ethtool_rmon_stats *stats,
         const struct ethtool_rmon_hist_range **ranges)
{
 struct airoha_gdm_port *port = netdev_priv(dev);
 struct airoha_hw_stats *hw_stats = &port->stats;
 unsigned int start;

 BUILD_BUG_ON(ARRAY_SIZE(airoha_ethtool_rmon_ranges) !=
       ARRAY_SIZE(hw_stats->tx_len) + 1);
 BUILD_BUG_ON(ARRAY_SIZE(airoha_ethtool_rmon_ranges) !=
       ARRAY_SIZE(hw_stats->rx_len) + 1);

 *ranges = airoha_ethtool_rmon_ranges;
 airoha_update_hw_stats(port);
 do {
  int i;

  start = u64_stats_fetch_begin(&port->stats.syncp);
  stats->fragments = hw_stats->rx_fragment;
  stats->jabbers = hw_stats->rx_jabber;
  for (i = 0; i < ARRAY_SIZE(airoha_ethtool_rmon_ranges) - 1;
       i++) {
   stats->hist[i] = hw_stats->rx_len[i];
   stats->hist_tx[i] = hw_stats->tx_len[i];
  }
 } while (u64_stats_fetch_retry(&port->stats.syncp, start));
}

static int airoha_qdma_set_chan_tx_sched(struct airoha_gdm_port *port,
      int channel, enum tx_sched_mode mode,
      const u16 *weights, u8 n_weights)
{
 int i;

 for (i = 0; i < AIROHA_NUM_TX_RING; i++)
  airoha_qdma_clear(port->qdma, REG_QUEUE_CLOSE_CFG(channel),
      TXQ_DISABLE_CHAN_QUEUE_MASK(channel, i));

 for (i = 0; i < n_weights; i++) {
  u32 status;
  int err;

  airoha_qdma_wr(port->qdma, REG_TXWRR_WEIGHT_CFG,
          TWRR_RW_CMD_MASK |
          FIELD_PREP(TWRR_CHAN_IDX_MASK, channel) |
          FIELD_PREP(TWRR_QUEUE_IDX_MASK, i) |
          FIELD_PREP(TWRR_VALUE_MASK, weights[i]));
  err = read_poll_timeout(airoha_qdma_rr, status,
     status & TWRR_RW_CMD_DONE,
     USEC_PER_MSEC, 10 * USEC_PER_MSEC,
     true, port->qdma,
     REG_TXWRR_WEIGHT_CFG);
  if (err)
   return err;
 }

 airoha_qdma_rmw(port->qdma, REG_CHAN_QOS_MODE(channel >> 3),
   CHAN_QOS_MODE_MASK(channel),
   mode << __ffs(CHAN_QOS_MODE_MASK(channel)));

 return 0;
}

static int airoha_qdma_set_tx_prio_sched(struct airoha_gdm_port *port,
      int channel)
{
 static const u16 w[AIROHA_NUM_QOS_QUEUES] = {};

 return airoha_qdma_set_chan_tx_sched(port, channel, TC_SCH_SP, w,
          ARRAY_SIZE(w));
}

static int airoha_qdma_set_tx_ets_sched(struct airoha_gdm_port *port,
     int channel,
     struct tc_ets_qopt_offload *opt)
{
 struct tc_ets_qopt_offload_replace_params *p = &opt->replace_params;
 enum tx_sched_mode mode = TC_SCH_SP;
 u16 w[AIROHA_NUM_QOS_QUEUES] = {};
 int i, nstrict = 0;

 if (p->bands > AIROHA_NUM_QOS_QUEUES)
  return -EINVAL;

 for (i = 0; i < p->bands; i++) {
  if (!p->quanta[i])
   nstrict++;
 }

 /* this configuration is not supported by the hw */
 if (nstrict == AIROHA_NUM_QOS_QUEUES - 1)
  return -EINVAL;

 /* EN7581 SoC supports fixed QoS band priority where WRR queues have
 * lowest priorities with respect to SP ones.
 * e.g: WRR0, WRR1, .., WRRm, SP0, SP1, .., SPn
 */

 for (i = 0; i < nstrict; i++) {
  if (p->priomap[p->bands - i - 1] != i)
   return -EINVAL;
 }

 for (i = 0; i < p->bands - nstrict; i++) {
  if (p->priomap[i] != nstrict + i)
   return -EINVAL;

  w[i] = p->weights[nstrict + i];
 }

 if (!nstrict)
  mode = TC_SCH_WRR8;
 else if (nstrict < AIROHA_NUM_QOS_QUEUES - 1)
  mode = nstrict + 1;

 return airoha_qdma_set_chan_tx_sched(port, channel, mode, w,
          ARRAY_SIZE(w));
}

static int airoha_qdma_get_tx_ets_stats(struct airoha_gdm_port *port,
     int channel,
     struct tc_ets_qopt_offload *opt)
{
 u64 cpu_tx_packets = airoha_qdma_rr(port->qdma,
         REG_CNTR_VAL(channel << 1));
 u64 fwd_tx_packets = airoha_qdma_rr(port->qdma,
         REG_CNTR_VAL((channel << 1) + 1));
 u64 tx_packets = (cpu_tx_packets - port->cpu_tx_packets) +
    (fwd_tx_packets - port->fwd_tx_packets);
 _bstats_update(opt->stats.bstats, 0, tx_packets);

 port->cpu_tx_packets = cpu_tx_packets;
 port->fwd_tx_packets = fwd_tx_packets;

 return 0;
}

static int airoha_tc_setup_qdisc_ets(struct airoha_gdm_port *port,
         struct tc_ets_qopt_offload *opt)
{
 int channel;

 if (opt->parent == TC_H_ROOT)
  return -EINVAL;

 channel = TC_H_MAJ(opt->handle) >> 16;
 channel = channel % AIROHA_NUM_QOS_CHANNELS;

 switch (opt->command) {
 case TC_ETS_REPLACE:
  return airoha_qdma_set_tx_ets_sched(port, channel, opt);
 case TC_ETS_DESTROY:
  /* PRIO is default qdisc scheduler */
  return airoha_qdma_set_tx_prio_sched(port, channel);
 case TC_ETS_STATS:
  return airoha_qdma_get_tx_ets_stats(port, channel, opt);
 default:
  return -EOPNOTSUPP;
 }
}

static int airoha_qdma_get_rl_param(struct airoha_qdma *qdma, int queue_id,
        u32 addr, enum trtcm_param_type param,
        u32 *val_low, u32 *val_high)
{
 u32 idx = QDMA_METER_IDX(queue_id), group = QDMA_METER_GROUP(queue_id);
 u32 val, config = FIELD_PREP(RATE_LIMIT_PARAM_TYPE_MASK, param) |
     FIELD_PREP(RATE_LIMIT_METER_GROUP_MASK, group) |
     FIELD_PREP(RATE_LIMIT_PARAM_INDEX_MASK, idx);

 airoha_qdma_wr(qdma, REG_TRTCM_CFG_PARAM(addr), config);
 if (read_poll_timeout(airoha_qdma_rr, val,
         val & RATE_LIMIT_PARAM_RW_DONE_MASK,
         USEC_PER_MSEC, 10 * USEC_PER_MSEC, true, qdma,
         REG_TRTCM_CFG_PARAM(addr)))
  return -ETIMEDOUT;

 *val_low = airoha_qdma_rr(qdma, REG_TRTCM_DATA_LOW(addr));
 if (val_high)
  *val_high = airoha_qdma_rr(qdma, REG_TRTCM_DATA_HIGH(addr));

 return 0;
}

static int airoha_qdma_set_rl_param(struct airoha_qdma *qdma, int queue_id,
        u32 addr, enum trtcm_param_type param,
        u32 val)
{
 u32 idx = QDMA_METER_IDX(queue_id), group = QDMA_METER_GROUP(queue_id);
 u32 config = RATE_LIMIT_PARAM_RW_MASK |
       FIELD_PREP(RATE_LIMIT_PARAM_TYPE_MASK, param) |
       FIELD_PREP(RATE_LIMIT_METER_GROUP_MASK, group) |
       FIELD_PREP(RATE_LIMIT_PARAM_INDEX_MASK, idx);

 airoha_qdma_wr(qdma, REG_TRTCM_DATA_LOW(addr), val);
 airoha_qdma_wr(qdma, REG_TRTCM_CFG_PARAM(addr), config);

 return read_poll_timeout(airoha_qdma_rr, val,
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=97 H=83 G=90

¤ Dauer der Verarbeitung: 0.21 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....
    

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge