Quellcodebibliothek Statistik Leitseite products/sources/formale Sprachen/C/Linux/drivers/net/ethernet/mellanox/mlx5/core/en/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 15 kB image not shown  

Quelle  txrx.h   Sprache: C

 
/* SPDX-License-Identifier: GPL-2.0 OR Linux-OpenIB */
/* Copyright (c) 2019 Mellanox Technologies. */

#ifndef __MLX5_EN_TXRX_H___
#define __MLX5_EN_TXRX_H___

#include "en.h"
#include <linux/indirect_call_wrapper.h>
#include <net/ip6_checksum.h>
#include <net/tcp.h>

#define MLX5E_TX_WQE_EMPTY_DS_COUNT (sizeof(struct mlx5e_tx_wqe) / MLX5_SEND_WQE_DS)

#define INL_HDR_START_SZ (sizeof(((struct mlx5_wqe_eth_seg *)NULL)->inline_hdr.start))

/* IPSEC inline data includes:
 * 1. ESP trailer: up to 255 bytes of padding, 1 byte for pad length, 1 byte for
 *    next header.
 * 2. ESP authentication data: 16 bytes for ICV.
 */

#define MLX5E_MAX_TX_IPSEC_DS DIV_ROUND_UP(sizeof(struct mlx5_wqe_inline_seg) + \
        255 + 1 + 1 + 16, MLX5_SEND_WQE_DS)

/* 366 should be big enough to cover all L2, L3 and L4 headers with possible
 * encapsulations.
 */

#define MLX5E_MAX_TX_INLINE_DS DIV_ROUND_UP(366 - INL_HDR_START_SZ + VLAN_HLEN, \
         MLX5_SEND_WQE_DS)

/* Sync the calculation with mlx5e_sq_calc_wqe_attr. */
#define MLX5E_MAX_TX_WQEBBS DIV_ROUND_UP(MLX5E_TX_WQE_EMPTY_DS_COUNT + \
      MLX5E_MAX_TX_INLINE_DS + \
      MLX5E_MAX_TX_IPSEC_DS + \
      MAX_SKB_FRAGS + 1, \
      MLX5_SEND_WQEBB_NUM_DS)

#define MLX5E_RX_ERR_CQE(cqe) (get_cqe_opcode(cqe) != MLX5_CQE_RESP_SEND)

#define MLX5E_KSM_UMR_WQE_SZ(sgl_len)\
 (sizeof(struct mlx5e_umr_wqe) +\
 (sizeof(struct mlx5_ksm) * (sgl_len)))

#define MLX5E_KSM_UMR_WQEBBS(ksm_entries) \
 (DIV_ROUND_UP(MLX5E_KSM_UMR_WQE_SZ(ksm_entries), MLX5_SEND_WQE_BB))

#define MLX5E_KSM_UMR_DS_CNT(ksm_entries)\
 (DIV_ROUND_UP(MLX5E_KSM_UMR_WQE_SZ(ksm_entries), MLX5_SEND_WQE_DS))

#define MLX5E_KSM_MAX_ENTRIES_PER_WQE(wqe_size)\
 (((wqe_size) - sizeof(struct mlx5e_umr_wqe)) / sizeof(struct mlx5_ksm))

#define MLX5E_KSM_ENTRIES_PER_WQE(wqe_size)\
 ALIGN_DOWN(MLX5E_KSM_MAX_ENTRIES_PER_WQE(wqe_size), MLX5_UMR_KSM_NUM_ENTRIES_ALIGNMENT)

#define MLX5E_MAX_KSM_PER_WQE(mdev) \
 MLX5E_KSM_ENTRIES_PER_WQE(MLX5_SEND_WQE_BB * mlx5e_get_max_sq_aligned_wqebbs(mdev))

static inline
ktime_t mlx5e_cqe_ts_to_ns(cqe_ts_to_ns func, struct mlx5_clock *clock, u64 cqe_ts)
{
 return INDIRECT_CALL_2(func, mlx5_real_time_cyc2time, mlx5_timecounter_cyc2time,
          clock, cqe_ts);
}

enum mlx5e_icosq_wqe_type {
 MLX5E_ICOSQ_WQE_NOP,
 MLX5E_ICOSQ_WQE_UMR_RX,
 MLX5E_ICOSQ_WQE_SHAMPO_HD_UMR,
#ifdef CONFIG_MLX5_EN_TLS
 MLX5E_ICOSQ_WQE_UMR_TLS,
 MLX5E_ICOSQ_WQE_SET_PSV_TLS,
 MLX5E_ICOSQ_WQE_GET_PSV_TLS,
#endif
};

/* General */
static inline bool mlx5e_skb_is_multicast(struct sk_buff *skb)
{
 return skb->pkt_type == PACKET_MULTICAST || skb->pkt_type == PACKET_BROADCAST;
}

void mlx5e_trigger_irq(struct mlx5e_icosq *sq);
void mlx5e_completion_event(struct mlx5_core_cq *mcq, struct mlx5_eqe *eqe);
void mlx5e_cq_error_event(struct mlx5_core_cq *mcq, enum mlx5_event event);
int mlx5e_napi_poll(struct napi_struct *napi, int budget);
int mlx5e_poll_ico_cq(struct mlx5e_cq *cq);

/* RX */
INDIRECT_CALLABLE_DECLARE(bool mlx5e_post_rx_wqes(struct mlx5e_rq *rq));
INDIRECT_CALLABLE_DECLARE(bool mlx5e_post_rx_mpwqes(struct mlx5e_rq *rq));
int mlx5e_poll_rx_cq(struct mlx5e_cq *cq, int budget);
void mlx5e_free_rx_descs(struct mlx5e_rq *rq);
void mlx5e_free_rx_missing_descs(struct mlx5e_rq *rq);

static inline bool mlx5e_rx_hw_stamp(struct hwtstamp_config *config)
{
 return config->rx_filter == HWTSTAMP_FILTER_ALL;
}

/* TX */
struct mlx5e_xmit_data {
 dma_addr_t  dma_addr;
 void       *data;
 u32         len : 31;
 u32         has_frags : 1;
};

struct mlx5e_xmit_data_frags {
 struct mlx5e_xmit_data xd;
 struct skb_shared_info *sinfo;
 dma_addr_t *dma_arr;
};

netdev_tx_t mlx5e_xmit(struct sk_buff *skb, struct net_device *dev);
bool mlx5e_poll_tx_cq(struct mlx5e_cq *cq, int napi_budget);
void mlx5e_free_txqsq_descs(struct mlx5e_txqsq *sq);

static inline bool
mlx5e_skb_fifo_has_room(struct mlx5e_skb_fifo *fifo)
{
 return (u16)(*fifo->pc - *fifo->cc) <= fifo->mask;
}

static inline bool
mlx5e_wqc_has_room_for(struct mlx5_wq_cyc *wq, u16 cc, u16 pc, u16 n)
{
 return (mlx5_wq_cyc_ctr2ix(wq, cc - pc) >= n) || (cc == pc);
}

static inline void *mlx5e_fetch_wqe(struct mlx5_wq_cyc *wq, u16 pi, size_t wqe_size)
{
 void *wqe;

 wqe = mlx5_wq_cyc_get_wqe(wq, pi);
 memset(wqe, 0, wqe_size);

 return wqe;
}

#define MLX5E_TX_FETCH_WQE(sq, pi) \
 ((struct mlx5e_tx_wqe *)mlx5e_fetch_wqe(&(sq)->wq, pi, sizeof(struct mlx5e_tx_wqe)))

static inline struct mlx5e_tx_wqe *
mlx5e_post_nop(struct mlx5_wq_cyc *wq, u32 sqn, u16 *pc)
{
 u16                         pi   = mlx5_wq_cyc_ctr2ix(wq, *pc);
 struct mlx5e_tx_wqe        *wqe  = mlx5_wq_cyc_get_wqe(wq, pi);
 struct mlx5_wqe_ctrl_seg   *cseg = &wqe->ctrl;

 memset(cseg, 0, sizeof(*cseg));

 cseg->opmod_idx_opcode = cpu_to_be32((*pc << 8) | MLX5_OPCODE_NOP);
 cseg->qpn_ds           = cpu_to_be32((sqn << 8) | 0x01);

 (*pc)++;

 return wqe;
}

static inline struct mlx5e_tx_wqe *
mlx5e_post_nop_fence(struct mlx5_wq_cyc *wq, u32 sqn, u16 *pc)
{
 u16                         pi   = mlx5_wq_cyc_ctr2ix(wq, *pc);
 struct mlx5e_tx_wqe        *wqe  = mlx5_wq_cyc_get_wqe(wq, pi);
 struct mlx5_wqe_ctrl_seg   *cseg = &wqe->ctrl;

 memset(cseg, 0, sizeof(*cseg));

 cseg->opmod_idx_opcode = cpu_to_be32((*pc << 8) | MLX5_OPCODE_NOP);
 cseg->qpn_ds           = cpu_to_be32((sqn << 8) | 0x01);
 cseg->fm_ce_se         = MLX5_FENCE_MODE_INITIATOR_SMALL;

 (*pc)++;

 return wqe;
}

struct mlx5e_tx_wqe_info {
 struct sk_buff *skb;
 u32 num_bytes;
 u8 num_wqebbs;
 u8 num_dma;
 u8 num_fifo_pkts;
#ifdef CONFIG_MLX5_EN_TLS
 struct page *resync_dump_frag_page;
#endif
};

static inline u16 mlx5e_txqsq_get_next_pi(struct mlx5e_txqsq *sq, u16 size)
{
 struct mlx5_wq_cyc *wq = &sq->wq;
 u16 pi, contig_wqebbs;

 pi = mlx5_wq_cyc_ctr2ix(wq, sq->pc);
 contig_wqebbs = mlx5_wq_cyc_get_contig_wqebbs(wq, pi);
 if (unlikely(contig_wqebbs < size)) {
  struct mlx5e_tx_wqe_info *wi, *edge_wi;

  wi = &sq->db.wqe_info[pi];
  edge_wi = wi + contig_wqebbs;

  /* Fill SQ frag edge with NOPs to avoid WQE wrapping two pages. */
  for (; wi < edge_wi; wi++) {
   *wi = (struct mlx5e_tx_wqe_info) {
    .num_wqebbs = 1,
   };
   mlx5e_post_nop(wq, sq->sqn, &sq->pc);
  }
  sq->stats->nop += contig_wqebbs;

  pi = mlx5_wq_cyc_ctr2ix(wq, sq->pc);
 }

 return pi;
}

static inline u16 mlx5e_txqsq_get_next_pi_anysize(struct mlx5e_txqsq *sq,
        u16 *size)
{
 struct mlx5_wq_cyc *wq = &sq->wq;
 u16 pi, contig_wqebbs;

 pi = mlx5_wq_cyc_ctr2ix(wq, sq->pc);
 contig_wqebbs = mlx5_wq_cyc_get_contig_wqebbs(wq, pi);
 *size = min_t(u16, contig_wqebbs, sq->max_sq_mpw_wqebbs);

 return pi;
}

void mlx5e_txqsq_wake(struct mlx5e_txqsq *sq);

static inline u16 mlx5e_shampo_get_cqe_header_index(struct mlx5e_rq *rq, struct mlx5_cqe64 *cqe)
{
 return be16_to_cpu(cqe->shampo.header_entry_index) & (rq->mpwqe.shampo->hd_per_wq - 1);
}

struct mlx5e_shampo_umr {
 u16 len;
};

struct mlx5e_icosq_wqe_info {
 u8 wqe_type;
 u8 num_wqebbs;

 /* Auxiliary data for different wqe types. */
 union {
  struct {
   struct mlx5e_rq *rq;
  } umr;
  struct mlx5e_shampo_umr shampo;
#ifdef CONFIG_MLX5_EN_TLS
  struct {
   struct mlx5e_ktls_offload_context_rx *priv_rx;
  } tls_set_params;
  struct {
   struct mlx5e_ktls_rx_resync_buf *buf;
  } tls_get_params;
#endif
 };
};

void mlx5e_free_icosq_descs(struct mlx5e_icosq *sq);

static inline u16 mlx5e_icosq_get_next_pi(struct mlx5e_icosq *sq, u16 size)
{
 struct mlx5_wq_cyc *wq = &sq->wq;
 u16 pi, contig_wqebbs;

 pi = mlx5_wq_cyc_ctr2ix(wq, sq->pc);
 contig_wqebbs = mlx5_wq_cyc_get_contig_wqebbs(wq, pi);
 if (unlikely(contig_wqebbs < size)) {
  struct mlx5e_icosq_wqe_info *wi, *edge_wi;

  wi = &sq->db.wqe_info[pi];
  edge_wi = wi + contig_wqebbs;

  /* Fill SQ frag edge with NOPs to avoid WQE wrapping two pages. */
  for (; wi < edge_wi; wi++) {
   *wi = (struct mlx5e_icosq_wqe_info) {
    .wqe_type   = MLX5E_ICOSQ_WQE_NOP,
    .num_wqebbs = 1,
   };
   mlx5e_post_nop(wq, sq->sqn, &sq->pc);
  }

  pi = mlx5_wq_cyc_ctr2ix(wq, sq->pc);
 }

 return pi;
}

static inline void
mlx5e_notify_hw(struct mlx5_wq_cyc *wq, u16 pc, void __iomem *uar_map,
  struct mlx5_wqe_ctrl_seg *ctrl)
{
 ctrl->fm_ce_se |= MLX5_WQE_CTRL_CQ_UPDATE;
 /* ensure wqe is visible to device before updating doorbell record */
 dma_wmb();

 *wq->db = cpu_to_be32(pc);

 /* ensure doorbell record is visible to device before ringing the
 * doorbell
 */

 wmb();

 mlx5_write64((__be32 *)ctrl, uar_map);
}

static inline void mlx5e_cq_arm(struct mlx5e_cq *cq)
{
 mlx5_cq_arm(&cq->mcq, MLX5_CQ_DB_REQ_NOT, cq->uar->map, cq->wq.cc);
}

static inline struct mlx5e_sq_dma *
mlx5e_dma_get(struct mlx5e_txqsq *sq, u32 i)
{
 return &sq->db.dma_fifo[i & sq->dma_fifo_mask];
}

static inline void
mlx5e_dma_push_single(struct mlx5e_txqsq *sq, dma_addr_t addr, u32 size)
{
 struct mlx5e_sq_dma *dma = mlx5e_dma_get(sq, sq->dma_fifo_pc++);

 dma->addr = addr;
 dma->size = size;
 dma->type = MLX5E_DMA_MAP_SINGLE;
}

static inline void
mlx5e_dma_push_netmem(struct mlx5e_txqsq *sq, netmem_ref netmem,
        dma_addr_t addr, u32 size)
{
 struct mlx5e_sq_dma *dma = mlx5e_dma_get(sq, sq->dma_fifo_pc++);

 netmem_dma_unmap_addr_set(netmem, dma, addr, addr);
 dma->size = size;
 dma->type = MLX5E_DMA_MAP_PAGE;
}

static inline
struct sk_buff **mlx5e_skb_fifo_get(struct mlx5e_skb_fifo *fifo, u16 i)
{
 return &fifo->fifo[i & fifo->mask];
}

static inline
void mlx5e_skb_fifo_push(struct mlx5e_skb_fifo *fifo, struct sk_buff *skb)
{
 struct sk_buff **skb_item = mlx5e_skb_fifo_get(fifo, (*fifo->pc)++);

 *skb_item = skb;
}

static inline
struct sk_buff *mlx5e_skb_fifo_pop(struct mlx5e_skb_fifo *fifo)
{
 WARN_ON_ONCE(*fifo->pc == *fifo->cc);

 return *mlx5e_skb_fifo_get(fifo, (*fifo->cc)++);
}

static inline void
mlx5e_tx_dma_unmap(struct device *pdev, struct mlx5e_sq_dma *dma)
{
 switch (dma->type) {
 case MLX5E_DMA_MAP_SINGLE:
  dma_unmap_single(pdev, dma->addr, dma->size, DMA_TO_DEVICE);
  break;
 case MLX5E_DMA_MAP_PAGE:
  netmem_dma_unmap_page_attrs(pdev, dma->addr, dma->size,
         DMA_TO_DEVICE, 0);
  break;
 default:
  WARN_ONCE(true"mlx5e_tx_dma_unmap unknown DMA type!\n");
 }
}

void mlx5e_tx_mpwqe_ensure_complete(struct mlx5e_txqsq *sq);

static inline bool mlx5e_tx_mpwqe_is_full(struct mlx5e_tx_mpwqe *session)
{
 return session->ds_count == session->ds_count_max;
}

static inline void mlx5e_rqwq_reset(struct mlx5e_rq *rq)
{
 if (rq->wq_type == MLX5_WQ_TYPE_LINKED_LIST_STRIDING_RQ) {
  mlx5_wq_ll_reset(&rq->mpwqe.wq);
  rq->mpwqe.actual_wq_head = 0;
 } else {
  mlx5_wq_cyc_reset(&rq->wqe.wq);
 }
}

static inline void mlx5e_dump_error_cqe(struct mlx5e_cq *cq, u32 qn,
     struct mlx5_err_cqe *err_cqe)
{
 struct mlx5_cqwq *wq = &cq->wq;
 u32 ci;

 ci = mlx5_cqwq_ctr2ix(wq, wq->cc - 1);

 netdev_err(cq->netdev,
     "Error cqe on cqn 0x%x, ci 0x%x, qn 0x%x, opcode 0x%x, syndrome 0x%x, vendor syndrome 0x%x\n",
     cq->mcq.cqn, ci, qn,
     get_cqe_opcode((struct mlx5_cqe64 *)err_cqe),
     err_cqe->syndrome, err_cqe->vendor_err_synd);
 mlx5_dump_err_cqe(cq->mdev, err_cqe);
}

static inline u32 mlx5e_rqwq_get_size(struct mlx5e_rq *rq)
{
 switch (rq->wq_type) {
 case MLX5_WQ_TYPE_LINKED_LIST_STRIDING_RQ:
  return mlx5_wq_ll_get_size(&rq->mpwqe.wq);
 default:
  return mlx5_wq_cyc_get_size(&rq->wqe.wq);
 }
}

static inline u32 mlx5e_rqwq_get_cur_sz(struct mlx5e_rq *rq)
{
 switch (rq->wq_type) {
 case MLX5_WQ_TYPE_LINKED_LIST_STRIDING_RQ:
  return rq->mpwqe.wq.cur_sz;
 default:
  return rq->wqe.wq.cur_sz;
 }
}

static inline u16 mlx5e_rqwq_get_head(struct mlx5e_rq *rq)
{
 switch (rq->wq_type) {
 case MLX5_WQ_TYPE_LINKED_LIST_STRIDING_RQ:
  return mlx5_wq_ll_get_head(&rq->mpwqe.wq);
 default:
  return mlx5_wq_cyc_get_head(&rq->wqe.wq);
 }
}

static inline u16 mlx5e_rqwq_get_wqe_counter(struct mlx5e_rq *rq)
{
 switch (rq->wq_type) {
 case MLX5_WQ_TYPE_LINKED_LIST_STRIDING_RQ:
  return mlx5_wq_ll_get_counter(&rq->mpwqe.wq);
 default:
  return mlx5_wq_cyc_get_counter(&rq->wqe.wq);
 }
}

/* SW parser related functions */

struct mlx5e_swp_spec {
 __be16 l3_proto;
 u8 l4_proto;
 u8 is_tun;
 __be16 tun_l3_proto;
 u8 tun_l4_proto;
};

static inline void mlx5e_eseg_swp_offsets_add_vlan(struct mlx5_wqe_eth_seg *eseg)
{
 /* SWP offsets are in 2-bytes words */
 eseg->swp_outer_l3_offset += VLAN_HLEN / 2;
 eseg->swp_outer_l4_offset += VLAN_HLEN / 2;
 eseg->swp_inner_l3_offset += VLAN_HLEN / 2;
 eseg->swp_inner_l4_offset += VLAN_HLEN / 2;
}

static inline void
mlx5e_set_eseg_swp(struct sk_buff *skb, struct mlx5_wqe_eth_seg *eseg,
     struct mlx5e_swp_spec *swp_spec)
{
 /* SWP offsets are in 2-bytes words */
 eseg->swp_outer_l3_offset = skb_network_offset(skb) / 2;
 if (swp_spec->l3_proto == htons(ETH_P_IPV6))
  eseg->swp_flags |= MLX5_ETH_WQE_SWP_OUTER_L3_IPV6;
 if (swp_spec->l4_proto) {
  eseg->swp_outer_l4_offset = skb_transport_offset(skb) / 2;
  if (swp_spec->l4_proto == IPPROTO_UDP)
   eseg->swp_flags |= MLX5_ETH_WQE_SWP_OUTER_L4_UDP;
 }

 if (swp_spec->is_tun) {
  eseg->swp_inner_l3_offset = skb_inner_network_offset(skb) / 2;
  if (swp_spec->tun_l3_proto == htons(ETH_P_IPV6))
   eseg->swp_flags |= MLX5_ETH_WQE_SWP_INNER_L3_IPV6;
 } else { /* typically for ipsec when xfrm mode != XFRM_MODE_TUNNEL */
  eseg->swp_inner_l3_offset = skb_network_offset(skb) / 2;
  if (swp_spec->l3_proto == htons(ETH_P_IPV6))
   eseg->swp_flags |= MLX5_ETH_WQE_SWP_INNER_L3_IPV6;
 }
 switch (swp_spec->tun_l4_proto) {
 case IPPROTO_UDP:
  eseg->swp_flags |= MLX5_ETH_WQE_SWP_INNER_L4_UDP;
  fallthrough;
 case IPPROTO_TCP:
  eseg->swp_inner_l4_offset = skb_inner_transport_offset(skb) / 2;
  break;
 }
}

static inline void
mlx5e_swp_encap_csum_partial(struct mlx5_core_dev *mdev, struct sk_buff *skb, bool tunnel)
{
 const struct iphdr *ip = tunnel ? inner_ip_hdr(skb) : ip_hdr(skb);
 const struct ipv6hdr *ip6;
 struct tcphdr *th;
 struct udphdr *uh;
 int len;

 if (!MLX5_CAP_ETH(mdev, swp_csum_l4_partial) || !skb_is_gso(skb))
  return;

 if (skb_is_gso_tcp(skb)) {
  th = inner_tcp_hdr(skb);
  len = skb_shinfo(skb)->gso_size + inner_tcp_hdrlen(skb);

  if (ip->version == 4) {
   th->check = ~tcp_v4_check(len, ip->saddr, ip->daddr, 0);
  } else {
   ip6 = tunnel ? inner_ipv6_hdr(skb) : ipv6_hdr(skb);
   th->check = ~tcp_v6_check(len, &ip6->saddr, &ip6->daddr, 0);
  }
 } else if (skb_shinfo(skb)->gso_type & SKB_GSO_UDP_L4) {
  uh = (struct udphdr *)skb_inner_transport_header(skb);
  len = skb_shinfo(skb)->gso_size + sizeof(struct udphdr);

  if (ip->version == 4) {
   uh->check = ~udp_v4_check(len, ip->saddr, ip->daddr, 0);
  } else {
   ip6 = tunnel ? inner_ipv6_hdr(skb) : ipv6_hdr(skb);
   uh->check = ~udp_v6_check(len, &ip6->saddr, &ip6->daddr, 0);
  }
 }
}

#define MLX5E_STOP_ROOM(wqebbs) ((wqebbs) * 2 - 1)

static inline u16 mlx5e_stop_room_for_wqe(struct mlx5_core_dev *mdev, u16 wqe_size)
{
 WARN_ON_ONCE(PAGE_SIZE / MLX5_SEND_WQE_BB < (u16)mlx5e_get_max_sq_wqebbs(mdev));

 /* A WQE must not cross the page boundary, hence two conditions:
 * 1. Its size must not exceed the page size.
 * 2. If the WQE size is X, and the space remaining in a page is less
 *    than X, this space needs to be padded with NOPs. So, one WQE of
 *    size X may require up to X-1 WQEBBs of padding, which makes the
 *    stop room of X-1 + X.
 * WQE size is also limited by the hardware limit.
 */

 WARN_ONCE(wqe_size > mlx5e_get_max_sq_wqebbs(mdev),
    "wqe_size %u is greater than max SQ WQEBBs %u",
    wqe_size, mlx5e_get_max_sq_wqebbs(mdev));

 return MLX5E_STOP_ROOM(wqe_size);
}

static inline u16 mlx5e_stop_room_for_max_wqe(struct mlx5_core_dev *mdev)
{
 return MLX5E_STOP_ROOM(mlx5e_get_max_sq_wqebbs(mdev));
}

static inline u16 mlx5e_stop_room_for_mpwqe(struct mlx5_core_dev *mdev)
{
 u8 mpwqe_wqebbs = mlx5e_get_max_sq_aligned_wqebbs(mdev);

 return mlx5e_stop_room_for_wqe(mdev, mpwqe_wqebbs);
}

static inline bool mlx5e_icosq_can_post_wqe(struct mlx5e_icosq *sq, u16 wqe_size)
{
 u16 room = sq->reserved_room + MLX5E_STOP_ROOM(wqe_size);

 return mlx5e_wqc_has_room_for(&sq->wq, sq->cc, sq->pc, room);
}

static inline struct mlx5e_mpw_info *mlx5e_get_mpw_info(struct mlx5e_rq *rq, int i)
{
 size_t isz = struct_size(rq->mpwqe.info, alloc_units.frag_pages, rq->mpwqe.pages_per_wqe);

 return (struct mlx5e_mpw_info *)((char *)rq->mpwqe.info + array_size(i, isz));
}
#endif

Messung V0.5
C=98 H=95 G=96

¤ Dauer der Verarbeitung: 0.2 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.