Quellcodebibliothek Statistik Leitseite products/sources/formale Sprachen/C/Linux/net/openvswitch/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 101 kB image not shown  

Quelle  flow_netlink.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-only
/*
 * Copyright (c) 2007-2017 Nicira, Inc.
 */


#define pr_fmt(fmt) KBUILD_MODNAME ": " fmt

#include "flow.h"
#include "datapath.h"
#include <linux/uaccess.h>
#include <linux/netdevice.h>
#include <linux/etherdevice.h>
#include <linux/if_ether.h>
#include <linux/if_vlan.h>
#include <net/llc_pdu.h>
#include <linux/kernel.h>
#include <linux/jhash.h>
#include <linux/jiffies.h>
#include <linux/llc.h>
#include <linux/module.h>
#include <linux/in.h>
#include <linux/rcupdate.h>
#include <linux/if_arp.h>
#include <linux/ip.h>
#include <linux/ipv6.h>
#include <linux/sctp.h>
#include <linux/tcp.h>
#include <linux/udp.h>
#include <linux/icmp.h>
#include <linux/icmpv6.h>
#include <linux/rculist.h>
#include <net/geneve.h>
#include <net/ip.h>
#include <net/ipv6.h>
#include <net/ndisc.h>
#include <net/mpls.h>
#include <net/vxlan.h>
#include <net/tun_proto.h>
#include <net/erspan.h>

#include "drop.h"
#include "flow_netlink.h"

struct ovs_len_tbl {
 int len;
 const struct ovs_len_tbl *next;
};

#define OVS_ATTR_NESTED -1
#define OVS_ATTR_VARIABLE -2
#define OVS_COPY_ACTIONS_MAX_DEPTH 16

static bool actions_may_change_flow(const struct nlattr *actions)
{
 struct nlattr *nla;
 int rem;

 nla_for_each_nested(nla, actions, rem) {
  u16 action = nla_type(nla);

  switch (action) {
  case OVS_ACTION_ATTR_OUTPUT:
  case OVS_ACTION_ATTR_RECIRC:
  case OVS_ACTION_ATTR_TRUNC:
  case OVS_ACTION_ATTR_USERSPACE:
  case OVS_ACTION_ATTR_DROP:
  case OVS_ACTION_ATTR_PSAMPLE:
   break;

  case OVS_ACTION_ATTR_CT:
  case OVS_ACTION_ATTR_CT_CLEAR:
  case OVS_ACTION_ATTR_HASH:
  case OVS_ACTION_ATTR_POP_ETH:
  case OVS_ACTION_ATTR_POP_MPLS:
  case OVS_ACTION_ATTR_POP_NSH:
  case OVS_ACTION_ATTR_POP_VLAN:
  case OVS_ACTION_ATTR_PUSH_ETH:
  case OVS_ACTION_ATTR_PUSH_MPLS:
  case OVS_ACTION_ATTR_PUSH_NSH:
  case OVS_ACTION_ATTR_PUSH_VLAN:
  case OVS_ACTION_ATTR_SAMPLE:
  case OVS_ACTION_ATTR_SET:
  case OVS_ACTION_ATTR_SET_MASKED:
  case OVS_ACTION_ATTR_METER:
  case OVS_ACTION_ATTR_CHECK_PKT_LEN:
  case OVS_ACTION_ATTR_ADD_MPLS:
  case OVS_ACTION_ATTR_DEC_TTL:
  default:
   return true;
  }
 }
 return false;
}

static void update_range(struct sw_flow_match *match,
    size_t offset, size_t size, bool is_mask)
{
 struct sw_flow_key_range *range;
 size_t start = rounddown(offset, sizeof(long));
 size_t end = roundup(offset + size, sizeof(long));

 if (!is_mask)
  range = &match->range;
 else
  range = &match->mask->range;

 if (range->start == range->end) {
  range->start = start;
  range->end = end;
  return;
 }

 if (range->start > start)
  range->start = start;

 if (range->end < end)
  range->end = end;
}

#define SW_FLOW_KEY_PUT(match, field, value, is_mask) \
 do { \
  update_range(match, offsetof(struct sw_flow_key, field),    \
        sizeof((match)->key->field), is_mask);     \
  if (is_mask)          \
   (match)->mask->key.field = value;      \
  else           \
   (match)->key->field = value;              \
 } while (0)

#define SW_FLOW_KEY_MEMCPY_OFFSET(match, offset, value_p, len, is_mask)     \
 do {            \
  update_range(match, offset, len, is_mask);      \
  if (is_mask)          \
   memcpy((u8 *)&(match)->mask->key + offset, value_p, \
          len);        \
  else           \
   memcpy((u8 *)(match)->key + offset, value_p, len);  \
 } while (0)

#define SW_FLOW_KEY_MEMCPY(match, field, value_p, len, is_mask)        \
 SW_FLOW_KEY_MEMCPY_OFFSET(match, offsetof(struct sw_flow_key, field), \
      value_p, len, is_mask)

#define SW_FLOW_KEY_MEMSET_FIELD(match, field, value, is_mask)      \
 do {            \
  update_range(match, offsetof(struct sw_flow_key, field),    \
        sizeof((match)->key->field), is_mask);     \
  if (is_mask)          \
   memset((u8 *)&(match)->mask->key.field, value,      \
          sizeof((match)->mask->key.field));     \
  else           \
   memset((u8 *)&(match)->key->field, value,           \
          sizeof((match)->key->field));                \
 } while (0)

#define SW_FLOW_KEY_BITMAP_COPY(match, field, value_p, nbits, is_mask) ({     \
 update_range(match, offsetof(struct sw_flow_key, field),       \
       bitmap_size(nbits), is_mask);         \
 bitmap_copy(is_mask ? (match)->mask->key.field : (match)->key->field, \
      value_p, nbits);           \
})

static bool match_validate(const struct sw_flow_match *match,
      u64 key_attrs, u64 mask_attrs, bool log)
{
 u64 key_expected = 0;
 u64 mask_allowed = key_attrs;  /* At most allow all key attributes */

 /* The following mask attributes allowed only if they
 * pass the validation tests. */

 mask_allowed &= ~((1 << OVS_KEY_ATTR_IPV4)
   | (1 << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4)
   | (1 << OVS_KEY_ATTR_IPV6)
   | (1 << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6)
   | (1 << OVS_KEY_ATTR_TCP)
   | (1 << OVS_KEY_ATTR_TCP_FLAGS)
   | (1 << OVS_KEY_ATTR_UDP)
   | (1 << OVS_KEY_ATTR_SCTP)
   | (1 << OVS_KEY_ATTR_ICMP)
   | (1 << OVS_KEY_ATTR_ICMPV6)
   | (1 << OVS_KEY_ATTR_ARP)
   | (1 << OVS_KEY_ATTR_ND)
   | (1 << OVS_KEY_ATTR_MPLS)
   | (1 << OVS_KEY_ATTR_NSH));

 /* Always allowed mask fields. */
 mask_allowed |= ((1 << OVS_KEY_ATTR_TUNNEL)
         | (1 << OVS_KEY_ATTR_IN_PORT)
         | (1 << OVS_KEY_ATTR_ETHERTYPE));

 /* Check key attributes. */
 if (match->key->eth.type == htons(ETH_P_ARP)
   || match->key->eth.type == htons(ETH_P_RARP)) {
  key_expected |= 1 << OVS_KEY_ATTR_ARP;
  if (match->mask && (match->mask->key.eth.type == htons(0xffff)))
   mask_allowed |= 1 << OVS_KEY_ATTR_ARP;
 }

 if (eth_p_mpls(match->key->eth.type)) {
  key_expected |= 1 << OVS_KEY_ATTR_MPLS;
  if (match->mask && (match->mask->key.eth.type == htons(0xffff)))
   mask_allowed |= 1 << OVS_KEY_ATTR_MPLS;
 }

 if (match->key->eth.type == htons(ETH_P_IP)) {
  key_expected |= 1 << OVS_KEY_ATTR_IPV4;
  if (match->mask && match->mask->key.eth.type == htons(0xffff)) {
   mask_allowed |= 1 << OVS_KEY_ATTR_IPV4;
   mask_allowed |= 1 << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4;
  }

  if (match->key->ip.frag != OVS_FRAG_TYPE_LATER) {
   if (match->key->ip.proto == IPPROTO_UDP) {
    key_expected |= 1 << OVS_KEY_ATTR_UDP;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_UDP;
   }

   if (match->key->ip.proto == IPPROTO_SCTP) {
    key_expected |= 1 << OVS_KEY_ATTR_SCTP;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_SCTP;
   }

   if (match->key->ip.proto == IPPROTO_TCP) {
    key_expected |= 1 << OVS_KEY_ATTR_TCP;
    key_expected |= 1 << OVS_KEY_ATTR_TCP_FLAGS;
    if (match->mask && (match->mask->key.ip.proto == 0xff)) {
     mask_allowed |= 1 << OVS_KEY_ATTR_TCP;
     mask_allowed |= 1 << OVS_KEY_ATTR_TCP_FLAGS;
    }
   }

   if (match->key->ip.proto == IPPROTO_ICMP) {
    key_expected |= 1 << OVS_KEY_ATTR_ICMP;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_ICMP;
   }
  }
 }

 if (match->key->eth.type == htons(ETH_P_IPV6)) {
  key_expected |= 1 << OVS_KEY_ATTR_IPV6;
  if (match->mask && match->mask->key.eth.type == htons(0xffff)) {
   mask_allowed |= 1 << OVS_KEY_ATTR_IPV6;
   mask_allowed |= 1 << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6;
  }

  if (match->key->ip.frag != OVS_FRAG_TYPE_LATER) {
   if (match->key->ip.proto == IPPROTO_UDP) {
    key_expected |= 1 << OVS_KEY_ATTR_UDP;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_UDP;
   }

   if (match->key->ip.proto == IPPROTO_SCTP) {
    key_expected |= 1 << OVS_KEY_ATTR_SCTP;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_SCTP;
   }

   if (match->key->ip.proto == IPPROTO_TCP) {
    key_expected |= 1 << OVS_KEY_ATTR_TCP;
    key_expected |= 1 << OVS_KEY_ATTR_TCP_FLAGS;
    if (match->mask && (match->mask->key.ip.proto == 0xff)) {
     mask_allowed |= 1 << OVS_KEY_ATTR_TCP;
     mask_allowed |= 1 << OVS_KEY_ATTR_TCP_FLAGS;
    }
   }

   if (match->key->ip.proto == IPPROTO_ICMPV6) {
    key_expected |= 1 << OVS_KEY_ATTR_ICMPV6;
    if (match->mask && (match->mask->key.ip.proto == 0xff))
     mask_allowed |= 1 << OVS_KEY_ATTR_ICMPV6;

    if (match->key->tp.src ==
      htons(NDISC_NEIGHBOUR_SOLICITATION) ||
        match->key->tp.src == htons(NDISC_NEIGHBOUR_ADVERTISEMENT)) {
     key_expected |= 1 << OVS_KEY_ATTR_ND;
     /* Original direction conntrack tuple
 * uses the same space as the ND fields
 * in the key, so both are not allowed
 * at the same time.
 */

     mask_allowed &= ~(1ULL << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6);
     if (match->mask && (match->mask->key.tp.src == htons(0xff)))
      mask_allowed |= 1 << OVS_KEY_ATTR_ND;
    }
   }
  }
 }

 if (match->key->eth.type == htons(ETH_P_NSH)) {
  key_expected |= 1 << OVS_KEY_ATTR_NSH;
  if (match->mask &&
      match->mask->key.eth.type == htons(0xffff)) {
   mask_allowed |= 1 << OVS_KEY_ATTR_NSH;
  }
 }

 if ((key_attrs & key_expected) != key_expected) {
  /* Key attributes check failed. */
  OVS_NLERR(log, "Missing key (keys=%llx, expected=%llx)",
     (unsigned long long)key_attrs,
     (unsigned long long)key_expected);
  return false;
 }

 if ((mask_attrs & mask_allowed) != mask_attrs) {
  /* Mask attributes check failed. */
  OVS_NLERR(log, "Unexpected mask (mask=%llx, allowed=%llx)",
     (unsigned long long)mask_attrs,
     (unsigned long long)mask_allowed);
  return false;
 }

 return true;
}

size_t ovs_tun_key_attr_size(void)
{
 /* Whenever adding new OVS_TUNNEL_KEY_ FIELDS, we should consider
 * updating this function.
 */

 return    nla_total_size_64bit(8) /* OVS_TUNNEL_KEY_ATTR_ID */
  + nla_total_size(16)   /* OVS_TUNNEL_KEY_ATTR_IPV[46]_SRC */
  + nla_total_size(16)   /* OVS_TUNNEL_KEY_ATTR_IPV[46]_DST */
  + nla_total_size(1)    /* OVS_TUNNEL_KEY_ATTR_TOS */
  + nla_total_size(1)    /* OVS_TUNNEL_KEY_ATTR_TTL */
  + nla_total_size(0)    /* OVS_TUNNEL_KEY_ATTR_DONT_FRAGMENT */
  + nla_total_size(0)    /* OVS_TUNNEL_KEY_ATTR_CSUM */
  + nla_total_size(0)    /* OVS_TUNNEL_KEY_ATTR_OAM */
  + nla_total_size(256)  /* OVS_TUNNEL_KEY_ATTR_GENEVE_OPTS */
  /* OVS_TUNNEL_KEY_ATTR_VXLAN_OPTS and
 * OVS_TUNNEL_KEY_ATTR_ERSPAN_OPTS is mutually exclusive with
 * OVS_TUNNEL_KEY_ATTR_GENEVE_OPTS and covered by it.
 */

  + nla_total_size(2)    /* OVS_TUNNEL_KEY_ATTR_TP_SRC */
  + nla_total_size(2);   /* OVS_TUNNEL_KEY_ATTR_TP_DST */
}

static size_t ovs_nsh_key_attr_size(void)
{
 /* Whenever adding new OVS_NSH_KEY_ FIELDS, we should consider
 * updating this function.
 */

 return  nla_total_size(NSH_BASE_HDR_LEN) /* OVS_NSH_KEY_ATTR_BASE */
  /* OVS_NSH_KEY_ATTR_MD1 and OVS_NSH_KEY_ATTR_MD2 are
 * mutually exclusive, so the bigger one can cover
 * the small one.
 */

  + nla_total_size(NSH_CTX_HDRS_MAX_LEN);
}

size_t ovs_key_attr_size(void)
{
 /* Whenever adding new OVS_KEY_ FIELDS, we should consider
 * updating this function.
 */

 BUILD_BUG_ON(OVS_KEY_ATTR_MAX != 32);

 return    nla_total_size(4)   /* OVS_KEY_ATTR_PRIORITY */
  + nla_total_size(0)   /* OVS_KEY_ATTR_TUNNEL */
    + ovs_tun_key_attr_size()
  + nla_total_size(4)   /* OVS_KEY_ATTR_IN_PORT */
  + nla_total_size(4)   /* OVS_KEY_ATTR_SKB_MARK */
  + nla_total_size(4)   /* OVS_KEY_ATTR_DP_HASH */
  + nla_total_size(4)   /* OVS_KEY_ATTR_RECIRC_ID */
  + nla_total_size(4)   /* OVS_KEY_ATTR_CT_STATE */
  + nla_total_size(2)   /* OVS_KEY_ATTR_CT_ZONE */
  + nla_total_size(4)   /* OVS_KEY_ATTR_CT_MARK */
  + nla_total_size(16)  /* OVS_KEY_ATTR_CT_LABELS */
  + nla_total_size(40)  /* OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6 */
  + nla_total_size(0)   /* OVS_KEY_ATTR_NSH */
    + ovs_nsh_key_attr_size()
  + nla_total_size(12)  /* OVS_KEY_ATTR_ETHERNET */
  + nla_total_size(2)   /* OVS_KEY_ATTR_ETHERTYPE */
  + nla_total_size(4)   /* OVS_KEY_ATTR_VLAN */
  + nla_total_size(0)   /* OVS_KEY_ATTR_ENCAP */
  + nla_total_size(2)   /* OVS_KEY_ATTR_ETHERTYPE */
  + nla_total_size(40)  /* OVS_KEY_ATTR_IPV6 */
  + nla_total_size(2)   /* OVS_KEY_ATTR_ICMPV6 */
  + nla_total_size(28)  /* OVS_KEY_ATTR_ND */
  + nla_total_size(2);  /* OVS_KEY_ATTR_IPV6_EXTHDRS */
}

static const struct ovs_len_tbl ovs_vxlan_ext_key_lens[OVS_VXLAN_EXT_MAX + 1] = {
 [OVS_VXLAN_EXT_GBP]     = { .len = sizeof(u32) },
};

static const struct ovs_len_tbl ovs_tunnel_key_lens[OVS_TUNNEL_KEY_ATTR_MAX + 1] = {
 [OVS_TUNNEL_KEY_ATTR_ID]     = { .len = sizeof(u64) },
 [OVS_TUNNEL_KEY_ATTR_IPV4_SRC]     = { .len = sizeof(u32) },
 [OVS_TUNNEL_KEY_ATTR_IPV4_DST]     = { .len = sizeof(u32) },
 [OVS_TUNNEL_KEY_ATTR_TOS]     = { .len = 1 },
 [OVS_TUNNEL_KEY_ATTR_TTL]     = { .len = 1 },
 [OVS_TUNNEL_KEY_ATTR_DONT_FRAGMENT] = { .len = 0 },
 [OVS_TUNNEL_KEY_ATTR_CSUM]     = { .len = 0 },
 [OVS_TUNNEL_KEY_ATTR_TP_SRC]     = { .len = sizeof(u16) },
 [OVS_TUNNEL_KEY_ATTR_TP_DST]     = { .len = sizeof(u16) },
 [OVS_TUNNEL_KEY_ATTR_OAM]     = { .len = 0 },
 [OVS_TUNNEL_KEY_ATTR_GENEVE_OPTS]   = { .len = OVS_ATTR_VARIABLE },
 [OVS_TUNNEL_KEY_ATTR_VXLAN_OPTS]    = { .len = OVS_ATTR_NESTED,
      .next = ovs_vxlan_ext_key_lens },
 [OVS_TUNNEL_KEY_ATTR_IPV6_SRC]      = { .len = sizeof(struct in6_addr) },
 [OVS_TUNNEL_KEY_ATTR_IPV6_DST]      = { .len = sizeof(struct in6_addr) },
 [OVS_TUNNEL_KEY_ATTR_ERSPAN_OPTS]   = { .len = OVS_ATTR_VARIABLE },
 [OVS_TUNNEL_KEY_ATTR_IPV4_INFO_BRIDGE]   = { .len = 0 },
};

static const struct ovs_len_tbl
ovs_nsh_key_attr_lens[OVS_NSH_KEY_ATTR_MAX + 1] = {
 [OVS_NSH_KEY_ATTR_BASE] = { .len = sizeof(struct ovs_nsh_key_base) },
 [OVS_NSH_KEY_ATTR_MD1]  = { .len = sizeof(struct ovs_nsh_key_md1) },
 [OVS_NSH_KEY_ATTR_MD2]  = { .len = OVS_ATTR_VARIABLE },
};

/* The size of the argument for each %OVS_KEY_ATTR_* Netlink attribute.  */
static const struct ovs_len_tbl ovs_key_lens[OVS_KEY_ATTR_MAX + 1] = {
 [OVS_KEY_ATTR_ENCAP]  = { .len = OVS_ATTR_NESTED },
 [OVS_KEY_ATTR_PRIORITY]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_IN_PORT]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_SKB_MARK]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_ETHERNET]  = { .len = sizeof(struct ovs_key_ethernet) },
 [OVS_KEY_ATTR_VLAN]  = { .len = sizeof(__be16) },
 [OVS_KEY_ATTR_ETHERTYPE] = { .len = sizeof(__be16) },
 [OVS_KEY_ATTR_IPV4]  = { .len = sizeof(struct ovs_key_ipv4) },
 [OVS_KEY_ATTR_IPV6]  = { .len = sizeof(struct ovs_key_ipv6) },
 [OVS_KEY_ATTR_TCP]  = { .len = sizeof(struct ovs_key_tcp) },
 [OVS_KEY_ATTR_TCP_FLAGS] = { .len = sizeof(__be16) },
 [OVS_KEY_ATTR_UDP]  = { .len = sizeof(struct ovs_key_udp) },
 [OVS_KEY_ATTR_SCTP]  = { .len = sizeof(struct ovs_key_sctp) },
 [OVS_KEY_ATTR_ICMP]  = { .len = sizeof(struct ovs_key_icmp) },
 [OVS_KEY_ATTR_ICMPV6]  = { .len = sizeof(struct ovs_key_icmpv6) },
 [OVS_KEY_ATTR_ARP]  = { .len = sizeof(struct ovs_key_arp) },
 [OVS_KEY_ATTR_ND]  = { .len = sizeof(struct ovs_key_nd) },
 [OVS_KEY_ATTR_RECIRC_ID] = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_DP_HASH]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_TUNNEL]  = { .len = OVS_ATTR_NESTED,
         .next = ovs_tunnel_key_lens, },
 [OVS_KEY_ATTR_MPLS]  = { .len = OVS_ATTR_VARIABLE },
 [OVS_KEY_ATTR_CT_STATE]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_CT_ZONE]  = { .len = sizeof(u16) },
 [OVS_KEY_ATTR_CT_MARK]  = { .len = sizeof(u32) },
 [OVS_KEY_ATTR_CT_LABELS] = { .len = sizeof(struct ovs_key_ct_labels) },
 [OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4] = {
  .len = sizeof(struct ovs_key_ct_tuple_ipv4) },
 [OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6] = {
  .len = sizeof(struct ovs_key_ct_tuple_ipv6) },
 [OVS_KEY_ATTR_NSH]       = { .len = OVS_ATTR_NESTED,
         .next = ovs_nsh_key_attr_lens, },
 [OVS_KEY_ATTR_IPV6_EXTHDRS] = {
  .len = sizeof(struct ovs_key_ipv6_exthdrs) },
};

static bool check_attr_len(unsigned int attr_len, unsigned int expected_len)
{
 return expected_len == attr_len ||
        expected_len == OVS_ATTR_NESTED ||
        expected_len == OVS_ATTR_VARIABLE;
}

static bool is_all_zero(const u8 *fp, size_t size)
{
 int i;

 if (!fp)
  return false;

 for (i = 0; i < size; i++)
  if (fp[i])
   return false;

 return true;
}

static int __parse_flow_nlattrs(const struct nlattr *attr,
    const struct nlattr *a[],
    u64 *attrsp, bool log, bool nz)
{
 const struct nlattr *nla;
 u64 attrs;
 int rem;

 attrs = *attrsp;
 nla_for_each_nested(nla, attr, rem) {
  u16 type = nla_type(nla);
  int expected_len;

  if (type > OVS_KEY_ATTR_MAX) {
   OVS_NLERR(log, "Key type %d is out of range max %d",
      type, OVS_KEY_ATTR_MAX);
   return -EINVAL;
  }

  if (type == OVS_KEY_ATTR_PACKET_TYPE ||
      type == OVS_KEY_ATTR_ND_EXTENSIONS ||
      type == OVS_KEY_ATTR_TUNNEL_INFO) {
   OVS_NLERR(log, "Key type %d is not supported", type);
   return -EINVAL;
  }

  if (attrs & (1ULL << type)) {
   OVS_NLERR(log, "Duplicate key (type %d).", type);
   return -EINVAL;
  }

  expected_len = ovs_key_lens[type].len;
  if (!check_attr_len(nla_len(nla), expected_len)) {
   OVS_NLERR(log, "Key %d has unexpected len %d expected %d",
      type, nla_len(nla), expected_len);
   return -EINVAL;
  }

  if (!nz || !is_all_zero(nla_data(nla), nla_len(nla))) {
   attrs |= 1ULL << type;
   a[type] = nla;
  }
 }
 if (rem) {
  OVS_NLERR(log, "Message has %d unknown bytes.", rem);
  return -EINVAL;
 }

 *attrsp = attrs;
 return 0;
}

static int parse_flow_mask_nlattrs(const struct nlattr *attr,
       const struct nlattr *a[], u64 *attrsp,
       bool log)
{
 return __parse_flow_nlattrs(attr, a, attrsp, log, true);
}

int parse_flow_nlattrs(const struct nlattr *attr, const struct nlattr *a[],
         u64 *attrsp, bool log)
{
 return __parse_flow_nlattrs(attr, a, attrsp, log, false);
}

static int genev_tun_opt_from_nlattr(const struct nlattr *a,
         struct sw_flow_match *match, bool is_mask,
         bool log)
{
 unsigned long opt_key_offset;

 if (nla_len(a) > sizeof(match->key->tun_opts)) {
  OVS_NLERR(log, "Geneve option length err (len %d, max %zu).",
     nla_len(a), sizeof(match->key->tun_opts));
  return -EINVAL;
 }

 if (nla_len(a) % 4 != 0) {
  OVS_NLERR(log, "Geneve opt len %d is not a multiple of 4.",
     nla_len(a));
  return -EINVAL;
 }

 /* We need to record the length of the options passed
 * down, otherwise packets with the same format but
 * additional options will be silently matched.
 */

 if (!is_mask) {
  SW_FLOW_KEY_PUT(match, tun_opts_len, nla_len(a),
    false);
 } else {
  /* This is somewhat unusual because it looks at
 * both the key and mask while parsing the
 * attributes (and by extension assumes the key
 * is parsed first). Normally, we would verify
 * that each is the correct length and that the
 * attributes line up in the validate function.
 * However, that is difficult because this is
 * variable length and we won't have the
 * information later.
 */

  if (match->key->tun_opts_len != nla_len(a)) {
   OVS_NLERR(log, "Geneve option len %d != mask len %d",
      match->key->tun_opts_len, nla_len(a));
   return -EINVAL;
  }

  SW_FLOW_KEY_PUT(match, tun_opts_len, 0xff, true);
 }

 opt_key_offset = TUN_METADATA_OFFSET(nla_len(a));
 SW_FLOW_KEY_MEMCPY_OFFSET(match, opt_key_offset, nla_data(a),
      nla_len(a), is_mask);
 return 0;
}

static int vxlan_tun_opt_from_nlattr(const struct nlattr *attr,
         struct sw_flow_match *match, bool is_mask,
         bool log)
{
 struct nlattr *a;
 int rem;
 unsigned long opt_key_offset;
 struct vxlan_metadata opts;

 BUILD_BUG_ON(sizeof(opts) > sizeof(match->key->tun_opts));

 memset(&opts, 0, sizeof(opts));
 nla_for_each_nested(a, attr, rem) {
  int type = nla_type(a);

  if (type > OVS_VXLAN_EXT_MAX) {
   OVS_NLERR(log, "VXLAN extension %d out of range max %d",
      type, OVS_VXLAN_EXT_MAX);
   return -EINVAL;
  }

  if (!check_attr_len(nla_len(a),
        ovs_vxlan_ext_key_lens[type].len)) {
   OVS_NLERR(log, "VXLAN extension %d has unexpected len %d expected %d",
      type, nla_len(a),
      ovs_vxlan_ext_key_lens[type].len);
   return -EINVAL;
  }

  switch (type) {
  case OVS_VXLAN_EXT_GBP:
   opts.gbp = nla_get_u32(a);
   break;
  default:
   OVS_NLERR(log, "Unknown VXLAN extension attribute %d",
      type);
   return -EINVAL;
  }
 }
 if (rem) {
  OVS_NLERR(log, "VXLAN extension message has %d unknown bytes.",
     rem);
  return -EINVAL;
 }

 if (!is_mask)
  SW_FLOW_KEY_PUT(match, tun_opts_len, sizeof(opts), false);
 else
  SW_FLOW_KEY_PUT(match, tun_opts_len, 0xff, true);

 opt_key_offset = TUN_METADATA_OFFSET(sizeof(opts));
 SW_FLOW_KEY_MEMCPY_OFFSET(match, opt_key_offset, &opts, sizeof(opts),
      is_mask);
 return 0;
}

static int erspan_tun_opt_from_nlattr(const struct nlattr *a,
          struct sw_flow_match *match, bool is_mask,
          bool log)
{
 unsigned long opt_key_offset;

 BUILD_BUG_ON(sizeof(struct erspan_metadata) >
       sizeof(match->key->tun_opts));

 if (nla_len(a) > sizeof(match->key->tun_opts)) {
  OVS_NLERR(log, "ERSPAN option length err (len %d, max %zu).",
     nla_len(a), sizeof(match->key->tun_opts));
  return -EINVAL;
 }

 if (!is_mask)
  SW_FLOW_KEY_PUT(match, tun_opts_len,
    sizeof(struct erspan_metadata), false);
 else
  SW_FLOW_KEY_PUT(match, tun_opts_len, 0xff, true);

 opt_key_offset = TUN_METADATA_OFFSET(nla_len(a));
 SW_FLOW_KEY_MEMCPY_OFFSET(match, opt_key_offset, nla_data(a),
      nla_len(a), is_mask);
 return 0;
}

static int ip_tun_from_nlattr(const struct nlattr *attr,
         struct sw_flow_match *match, bool is_mask,
         bool log)
{
 bool ttl = false, ipv4 = false, ipv6 = false;
 IP_TUNNEL_DECLARE_FLAGS(tun_flags) = { };
 bool info_bridge_mode = false;
 int opts_type = 0;
 struct nlattr *a;
 int rem;

 nla_for_each_nested(a, attr, rem) {
  int type = nla_type(a);
  int err;

  if (type > OVS_TUNNEL_KEY_ATTR_MAX) {
   OVS_NLERR(log, "Tunnel attr %d out of range max %d",
      type, OVS_TUNNEL_KEY_ATTR_MAX);
   return -EINVAL;
  }

  if (!check_attr_len(nla_len(a),
        ovs_tunnel_key_lens[type].len)) {
   OVS_NLERR(log, "Tunnel attr %d has unexpected len %d expected %d",
      type, nla_len(a), ovs_tunnel_key_lens[type].len);
   return -EINVAL;
  }

  switch (type) {
  case OVS_TUNNEL_KEY_ATTR_ID:
   SW_FLOW_KEY_PUT(match, tun_key.tun_id,
     nla_get_be64(a), is_mask);
   __set_bit(IP_TUNNEL_KEY_BIT, tun_flags);
   break;
  case OVS_TUNNEL_KEY_ATTR_IPV4_SRC:
   SW_FLOW_KEY_PUT(match, tun_key.u.ipv4.src,
     nla_get_in_addr(a), is_mask);
   ipv4 = true;
   break;
  case OVS_TUNNEL_KEY_ATTR_IPV4_DST:
   SW_FLOW_KEY_PUT(match, tun_key.u.ipv4.dst,
     nla_get_in_addr(a), is_mask);
   ipv4 = true;
   break;
  case OVS_TUNNEL_KEY_ATTR_IPV6_SRC:
   SW_FLOW_KEY_PUT(match, tun_key.u.ipv6.src,
     nla_get_in6_addr(a), is_mask);
   ipv6 = true;
   break;
  case OVS_TUNNEL_KEY_ATTR_IPV6_DST:
   SW_FLOW_KEY_PUT(match, tun_key.u.ipv6.dst,
     nla_get_in6_addr(a), is_mask);
   ipv6 = true;
   break;
  case OVS_TUNNEL_KEY_ATTR_TOS:
   SW_FLOW_KEY_PUT(match, tun_key.tos,
     nla_get_u8(a), is_mask);
   break;
  case OVS_TUNNEL_KEY_ATTR_TTL:
   SW_FLOW_KEY_PUT(match, tun_key.ttl,
     nla_get_u8(a), is_mask);
   ttl = true;
   break;
  case OVS_TUNNEL_KEY_ATTR_DONT_FRAGMENT:
   __set_bit(IP_TUNNEL_DONT_FRAGMENT_BIT, tun_flags);
   break;
  case OVS_TUNNEL_KEY_ATTR_CSUM:
   __set_bit(IP_TUNNEL_CSUM_BIT, tun_flags);
   break;
  case OVS_TUNNEL_KEY_ATTR_TP_SRC:
   SW_FLOW_KEY_PUT(match, tun_key.tp_src,
     nla_get_be16(a), is_mask);
   break;
  case OVS_TUNNEL_KEY_ATTR_TP_DST:
   SW_FLOW_KEY_PUT(match, tun_key.tp_dst,
     nla_get_be16(a), is_mask);
   break;
  case OVS_TUNNEL_KEY_ATTR_OAM:
   __set_bit(IP_TUNNEL_OAM_BIT, tun_flags);
   break;
  case OVS_TUNNEL_KEY_ATTR_GENEVE_OPTS:
   if (opts_type) {
    OVS_NLERR(log, "Multiple metadata blocks provided");
    return -EINVAL;
   }

   err = genev_tun_opt_from_nlattr(a, match, is_mask, log);
   if (err)
    return err;

   __set_bit(IP_TUNNEL_GENEVE_OPT_BIT, tun_flags);
   opts_type = type;
   break;
  case OVS_TUNNEL_KEY_ATTR_VXLAN_OPTS:
   if (opts_type) {
    OVS_NLERR(log, "Multiple metadata blocks provided");
    return -EINVAL;
   }

   err = vxlan_tun_opt_from_nlattr(a, match, is_mask, log);
   if (err)
    return err;

   __set_bit(IP_TUNNEL_VXLAN_OPT_BIT, tun_flags);
   opts_type = type;
   break;
  case OVS_TUNNEL_KEY_ATTR_PAD:
   break;
  case OVS_TUNNEL_KEY_ATTR_ERSPAN_OPTS:
   if (opts_type) {
    OVS_NLERR(log, "Multiple metadata blocks provided");
    return -EINVAL;
   }

   err = erspan_tun_opt_from_nlattr(a, match, is_mask,
        log);
   if (err)
    return err;

   __set_bit(IP_TUNNEL_ERSPAN_OPT_BIT, tun_flags);
   opts_type = type;
   break;
  case OVS_TUNNEL_KEY_ATTR_IPV4_INFO_BRIDGE:
   info_bridge_mode = true;
   ipv4 = true;
   break;
  default:
   OVS_NLERR(log, "Unknown IP tunnel attribute %d",
      type);
   return -EINVAL;
  }
 }

 SW_FLOW_KEY_BITMAP_COPY(match, tun_key.tun_flags, tun_flags,
    __IP_TUNNEL_FLAG_NUM, is_mask);
 if (is_mask)
  SW_FLOW_KEY_MEMSET_FIELD(match, tun_proto, 0xff, true);
 else
  SW_FLOW_KEY_PUT(match, tun_proto, ipv6 ? AF_INET6 : AF_INET,
    false);

 if (rem > 0) {
  OVS_NLERR(log, "IP tunnel attribute has %d unknown bytes.",
     rem);
  return -EINVAL;
 }

 if (ipv4 && ipv6) {
  OVS_NLERR(log, "Mixed IPv4 and IPv6 tunnel attributes");
  return -EINVAL;
 }

 if (!is_mask) {
  if (!ipv4 && !ipv6) {
   OVS_NLERR(log, "IP tunnel dst address not specified");
   return -EINVAL;
  }
  if (ipv4) {
   if (info_bridge_mode) {
    __clear_bit(IP_TUNNEL_KEY_BIT, tun_flags);

    if (match->key->tun_key.u.ipv4.src ||
        match->key->tun_key.u.ipv4.dst ||
        match->key->tun_key.tp_src ||
        match->key->tun_key.tp_dst ||
        match->key->tun_key.ttl ||
        match->key->tun_key.tos ||
        !ip_tunnel_flags_empty(tun_flags)) {
     OVS_NLERR(log, "IPv4 tun info is not correct");
     return -EINVAL;
    }
   } else if (!match->key->tun_key.u.ipv4.dst) {
    OVS_NLERR(log, "IPv4 tunnel dst address is zero");
    return -EINVAL;
   }
  }
  if (ipv6 && ipv6_addr_any(&match->key->tun_key.u.ipv6.dst)) {
   OVS_NLERR(log, "IPv6 tunnel dst address is zero");
   return -EINVAL;
  }

  if (!ttl && !info_bridge_mode) {
   OVS_NLERR(log, "IP tunnel TTL not specified.");
   return -EINVAL;
  }
 }

 return opts_type;
}

static int vxlan_opt_to_nlattr(struct sk_buff *skb,
          const void *tun_opts, int swkey_tun_opts_len)
{
 const struct vxlan_metadata *opts = tun_opts;
 struct nlattr *nla;

 nla = nla_nest_start_noflag(skb, OVS_TUNNEL_KEY_ATTR_VXLAN_OPTS);
 if (!nla)
  return -EMSGSIZE;

 if (nla_put_u32(skb, OVS_VXLAN_EXT_GBP, opts->gbp) < 0)
  return -EMSGSIZE;

 nla_nest_end(skb, nla);
 return 0;
}

static int __ip_tun_to_nlattr(struct sk_buff *skb,
         const struct ip_tunnel_key *output,
         const void *tun_opts, int swkey_tun_opts_len,
         unsigned short tun_proto, u8 mode)
{
 if (test_bit(IP_TUNNEL_KEY_BIT, output->tun_flags) &&
     nla_put_be64(skb, OVS_TUNNEL_KEY_ATTR_ID, output->tun_id,
    OVS_TUNNEL_KEY_ATTR_PAD))
  return -EMSGSIZE;

 if (mode & IP_TUNNEL_INFO_BRIDGE)
  return nla_put_flag(skb, OVS_TUNNEL_KEY_ATTR_IPV4_INFO_BRIDGE)
         ? -EMSGSIZE : 0;

 switch (tun_proto) {
 case AF_INET:
  if (output->u.ipv4.src &&
      nla_put_in_addr(skb, OVS_TUNNEL_KEY_ATTR_IPV4_SRC,
        output->u.ipv4.src))
   return -EMSGSIZE;
  if (output->u.ipv4.dst &&
      nla_put_in_addr(skb, OVS_TUNNEL_KEY_ATTR_IPV4_DST,
        output->u.ipv4.dst))
   return -EMSGSIZE;
  break;
 case AF_INET6:
  if (!ipv6_addr_any(&output->u.ipv6.src) &&
      nla_put_in6_addr(skb, OVS_TUNNEL_KEY_ATTR_IPV6_SRC,
         &output->u.ipv6.src))
   return -EMSGSIZE;
  if (!ipv6_addr_any(&output->u.ipv6.dst) &&
      nla_put_in6_addr(skb, OVS_TUNNEL_KEY_ATTR_IPV6_DST,
         &output->u.ipv6.dst))
   return -EMSGSIZE;
  break;
 }
 if (output->tos &&
     nla_put_u8(skb, OVS_TUNNEL_KEY_ATTR_TOS, output->tos))
  return -EMSGSIZE;
 if (nla_put_u8(skb, OVS_TUNNEL_KEY_ATTR_TTL, output->ttl))
  return -EMSGSIZE;
 if (test_bit(IP_TUNNEL_DONT_FRAGMENT_BIT, output->tun_flags) &&
     nla_put_flag(skb, OVS_TUNNEL_KEY_ATTR_DONT_FRAGMENT))
  return -EMSGSIZE;
 if (test_bit(IP_TUNNEL_CSUM_BIT, output->tun_flags) &&
     nla_put_flag(skb, OVS_TUNNEL_KEY_ATTR_CSUM))
  return -EMSGSIZE;
 if (output->tp_src &&
     nla_put_be16(skb, OVS_TUNNEL_KEY_ATTR_TP_SRC, output->tp_src))
  return -EMSGSIZE;
 if (output->tp_dst &&
     nla_put_be16(skb, OVS_TUNNEL_KEY_ATTR_TP_DST, output->tp_dst))
  return -EMSGSIZE;
 if (test_bit(IP_TUNNEL_OAM_BIT, output->tun_flags) &&
     nla_put_flag(skb, OVS_TUNNEL_KEY_ATTR_OAM))
  return -EMSGSIZE;
 if (swkey_tun_opts_len) {
  if (test_bit(IP_TUNNEL_GENEVE_OPT_BIT, output->tun_flags) &&
      nla_put(skb, OVS_TUNNEL_KEY_ATTR_GENEVE_OPTS,
       swkey_tun_opts_len, tun_opts))
   return -EMSGSIZE;
  else if (test_bit(IP_TUNNEL_VXLAN_OPT_BIT,
      output->tun_flags) &&
    vxlan_opt_to_nlattr(skb, tun_opts, swkey_tun_opts_len))
   return -EMSGSIZE;
  else if (test_bit(IP_TUNNEL_ERSPAN_OPT_BIT,
      output->tun_flags) &&
    nla_put(skb, OVS_TUNNEL_KEY_ATTR_ERSPAN_OPTS,
     swkey_tun_opts_len, tun_opts))
   return -EMSGSIZE;
 }

 return 0;
}

static int ip_tun_to_nlattr(struct sk_buff *skb,
       const struct ip_tunnel_key *output,
       const void *tun_opts, int swkey_tun_opts_len,
       unsigned short tun_proto, u8 mode)
{
 struct nlattr *nla;
 int err;

 nla = nla_nest_start_noflag(skb, OVS_KEY_ATTR_TUNNEL);
 if (!nla)
  return -EMSGSIZE;

 err = __ip_tun_to_nlattr(skb, output, tun_opts, swkey_tun_opts_len,
     tun_proto, mode);
 if (err)
  return err;

 nla_nest_end(skb, nla);
 return 0;
}

int ovs_nla_put_tunnel_info(struct sk_buff *skb,
       struct ip_tunnel_info *tun_info)
{
 return __ip_tun_to_nlattr(skb, &tun_info->key,
      ip_tunnel_info_opts(tun_info),
      tun_info->options_len,
      ip_tunnel_info_af(tun_info), tun_info->mode);
}

static int encode_vlan_from_nlattrs(struct sw_flow_match *match,
        const struct nlattr *a[],
        bool is_mask, bool inner)
{
 __be16 tci = 0;
 __be16 tpid = 0;

 if (a[OVS_KEY_ATTR_VLAN])
  tci = nla_get_be16(a[OVS_KEY_ATTR_VLAN]);

 if (a[OVS_KEY_ATTR_ETHERTYPE])
  tpid = nla_get_be16(a[OVS_KEY_ATTR_ETHERTYPE]);

 if (likely(!inner)) {
  SW_FLOW_KEY_PUT(match, eth.vlan.tpid, tpid, is_mask);
  SW_FLOW_KEY_PUT(match, eth.vlan.tci, tci, is_mask);
 } else {
  SW_FLOW_KEY_PUT(match, eth.cvlan.tpid, tpid, is_mask);
  SW_FLOW_KEY_PUT(match, eth.cvlan.tci, tci, is_mask);
 }
 return 0;
}

static int validate_vlan_from_nlattrs(const struct sw_flow_match *match,
          u64 key_attrs, bool inner,
          const struct nlattr **a, bool log)
{
 __be16 tci = 0;

 if (!((key_attrs & (1 << OVS_KEY_ATTR_ETHERNET)) &&
       (key_attrs & (1 << OVS_KEY_ATTR_ETHERTYPE)) &&
        eth_type_vlan(nla_get_be16(a[OVS_KEY_ATTR_ETHERTYPE])))) {
  /* Not a VLAN. */
  return 0;
 }

 if (!((key_attrs & (1 << OVS_KEY_ATTR_VLAN)) &&
       (key_attrs & (1 << OVS_KEY_ATTR_ENCAP)))) {
  OVS_NLERR(log, "Invalid %s frame", (inner) ? "C-VLAN" : "VLAN");
  return -EINVAL;
 }

 if (a[OVS_KEY_ATTR_VLAN])
  tci = nla_get_be16(a[OVS_KEY_ATTR_VLAN]);

 if (!(tci & htons(VLAN_CFI_MASK))) {
  if (tci) {
   OVS_NLERR(log, "%s TCI does not have VLAN_CFI_MASK bit set.",
      (inner) ? "C-VLAN" : "VLAN");
   return -EINVAL;
  } else if (nla_len(a[OVS_KEY_ATTR_ENCAP])) {
   /* Corner case for truncated VLAN header. */
   OVS_NLERR(log, "Truncated %s header has non-zero encap attribute.",
      (inner) ? "C-VLAN" : "VLAN");
   return -EINVAL;
  }
 }

 return 1;
}

static int validate_vlan_mask_from_nlattrs(const struct sw_flow_match *match,
        u64 key_attrs, bool inner,
        const struct nlattr **a, bool log)
{
 __be16 tci = 0;
 __be16 tpid = 0;
 bool encap_valid = !!(match->key->eth.vlan.tci &
         htons(VLAN_CFI_MASK));
 bool i_encap_valid = !!(match->key->eth.cvlan.tci &
    htons(VLAN_CFI_MASK));

 if (!(key_attrs & (1 << OVS_KEY_ATTR_ENCAP))) {
  /* Not a VLAN. */
  return 0;
 }

 if ((!inner && !encap_valid) || (inner && !i_encap_valid)) {
  OVS_NLERR(log, "Encap mask attribute is set for non-%s frame.",
     (inner) ? "C-VLAN" : "VLAN");
  return -EINVAL;
 }

 if (a[OVS_KEY_ATTR_VLAN])
  tci = nla_get_be16(a[OVS_KEY_ATTR_VLAN]);

 if (a[OVS_KEY_ATTR_ETHERTYPE])
  tpid = nla_get_be16(a[OVS_KEY_ATTR_ETHERTYPE]);

 if (tpid != htons(0xffff)) {
  OVS_NLERR(log, "Must have an exact match on %s TPID (mask=%x).",
     (inner) ? "C-VLAN" : "VLAN", ntohs(tpid));
  return -EINVAL;
 }
 if (!(tci & htons(VLAN_CFI_MASK))) {
  OVS_NLERR(log, "%s TCI mask does not have exact match for VLAN_CFI_MASK bit.",
     (inner) ? "C-VLAN" : "VLAN");
  return -EINVAL;
 }

 return 1;
}

static int __parse_vlan_from_nlattrs(struct sw_flow_match *match,
         u64 *key_attrs, bool inner,
         const struct nlattr **a, bool is_mask,
         bool log)
{
 int err;
 const struct nlattr *encap;

 if (!is_mask)
  err = validate_vlan_from_nlattrs(match, *key_attrs, inner,
       a, log);
 else
  err = validate_vlan_mask_from_nlattrs(match, *key_attrs, inner,
            a, log);
 if (err <= 0)
  return err;

 err = encode_vlan_from_nlattrs(match, a, is_mask, inner);
 if (err)
  return err;

 *key_attrs &= ~(1 << OVS_KEY_ATTR_ENCAP);
 *key_attrs &= ~(1 << OVS_KEY_ATTR_VLAN);
 *key_attrs &= ~(1 << OVS_KEY_ATTR_ETHERTYPE);

 encap = a[OVS_KEY_ATTR_ENCAP];

 if (!is_mask)
  err = parse_flow_nlattrs(encap, a, key_attrs, log);
 else
  err = parse_flow_mask_nlattrs(encap, a, key_attrs, log);

 return err;
}

static int parse_vlan_from_nlattrs(struct sw_flow_match *match,
       u64 *key_attrs, const struct nlattr **a,
       bool is_mask, bool log)
{
 int err;
 bool encap_valid = false;

 err = __parse_vlan_from_nlattrs(match, key_attrs, false, a,
     is_mask, log);
 if (err)
  return err;

 encap_valid = !!(match->key->eth.vlan.tci & htons(VLAN_CFI_MASK));
 if (encap_valid) {
  err = __parse_vlan_from_nlattrs(match, key_attrs, true, a,
      is_mask, log);
  if (err)
   return err;
 }

 return 0;
}

static int parse_eth_type_from_nlattrs(struct sw_flow_match *match,
           u64 *attrs, const struct nlattr **a,
           bool is_mask, bool log)
{
 __be16 eth_type;

 eth_type = nla_get_be16(a[OVS_KEY_ATTR_ETHERTYPE]);
 if (is_mask) {
  /* Always exact match EtherType. */
  eth_type = htons(0xffff);
 } else if (!eth_proto_is_802_3(eth_type)) {
  OVS_NLERR(log, "EtherType %x is less than min %x",
    ntohs(eth_type), ETH_P_802_3_MIN);
  return -EINVAL;
 }

 SW_FLOW_KEY_PUT(match, eth.type, eth_type, is_mask);
 *attrs &= ~(1 << OVS_KEY_ATTR_ETHERTYPE);
 return 0;
}

static int metadata_from_nlattrs(struct net *net, struct sw_flow_match *match,
     u64 *attrs, const struct nlattr **a,
     bool is_mask, bool log)
{
 u8 mac_proto = MAC_PROTO_ETHERNET;

 if (*attrs & (1 << OVS_KEY_ATTR_DP_HASH)) {
  u32 hash_val = nla_get_u32(a[OVS_KEY_ATTR_DP_HASH]);

  SW_FLOW_KEY_PUT(match, ovs_flow_hash, hash_val, is_mask);
  *attrs &= ~(1 << OVS_KEY_ATTR_DP_HASH);
 }

 if (*attrs & (1 << OVS_KEY_ATTR_RECIRC_ID)) {
  u32 recirc_id = nla_get_u32(a[OVS_KEY_ATTR_RECIRC_ID]);

  SW_FLOW_KEY_PUT(match, recirc_id, recirc_id, is_mask);
  *attrs &= ~(1 << OVS_KEY_ATTR_RECIRC_ID);
 }

 if (*attrs & (1 << OVS_KEY_ATTR_PRIORITY)) {
  SW_FLOW_KEY_PUT(match, phy.priority,
     nla_get_u32(a[OVS_KEY_ATTR_PRIORITY]), is_mask);
  *attrs &= ~(1 << OVS_KEY_ATTR_PRIORITY);
 }

 if (*attrs & (1 << OVS_KEY_ATTR_IN_PORT)) {
  u32 in_port = nla_get_u32(a[OVS_KEY_ATTR_IN_PORT]);

  if (is_mask) {
   in_port = 0xffffffff; /* Always exact match in_port. */
  } else if (in_port >= DP_MAX_PORTS) {
   OVS_NLERR(log, "Port %d exceeds max allowable %d",
      in_port, DP_MAX_PORTS);
   return -EINVAL;
  }

  SW_FLOW_KEY_PUT(match, phy.in_port, in_port, is_mask);
  *attrs &= ~(1 << OVS_KEY_ATTR_IN_PORT);
 } else if (!is_mask) {
  SW_FLOW_KEY_PUT(match, phy.in_port, DP_MAX_PORTS, is_mask);
 }

 if (*attrs & (1 << OVS_KEY_ATTR_SKB_MARK)) {
  uint32_t mark = nla_get_u32(a[OVS_KEY_ATTR_SKB_MARK]);

  SW_FLOW_KEY_PUT(match, phy.skb_mark, mark, is_mask);
  *attrs &= ~(1 << OVS_KEY_ATTR_SKB_MARK);
 }
 if (*attrs & (1 << OVS_KEY_ATTR_TUNNEL)) {
  if (ip_tun_from_nlattr(a[OVS_KEY_ATTR_TUNNEL], match,
           is_mask, log) < 0)
   return -EINVAL;
  *attrs &= ~(1 << OVS_KEY_ATTR_TUNNEL);
 }

 if (*attrs & (1 << OVS_KEY_ATTR_CT_STATE) &&
     ovs_ct_verify(net, OVS_KEY_ATTR_CT_STATE)) {
  u32 ct_state = nla_get_u32(a[OVS_KEY_ATTR_CT_STATE]);

  if (ct_state & ~CT_SUPPORTED_MASK) {
   OVS_NLERR(log, "ct_state flags %08x unsupported",
      ct_state);
   return -EINVAL;
  }

  SW_FLOW_KEY_PUT(match, ct_state, ct_state, is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_STATE);
 }
 if (*attrs & (1 << OVS_KEY_ATTR_CT_ZONE) &&
     ovs_ct_verify(net, OVS_KEY_ATTR_CT_ZONE)) {
  u16 ct_zone = nla_get_u16(a[OVS_KEY_ATTR_CT_ZONE]);

  SW_FLOW_KEY_PUT(match, ct_zone, ct_zone, is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_ZONE);
 }
 if (*attrs & (1 << OVS_KEY_ATTR_CT_MARK) &&
     ovs_ct_verify(net, OVS_KEY_ATTR_CT_MARK)) {
  u32 mark = nla_get_u32(a[OVS_KEY_ATTR_CT_MARK]);

  SW_FLOW_KEY_PUT(match, ct.mark, mark, is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_MARK);
 }
 if (*attrs & (1 << OVS_KEY_ATTR_CT_LABELS) &&
     ovs_ct_verify(net, OVS_KEY_ATTR_CT_LABELS)) {
  const struct ovs_key_ct_labels *cl;

  cl = nla_data(a[OVS_KEY_ATTR_CT_LABELS]);
  SW_FLOW_KEY_MEMCPY(match, ct.labels, cl->ct_labels,
       sizeof(*cl), is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_LABELS);
 }
 if (*attrs & (1ULL << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4)) {
  const struct ovs_key_ct_tuple_ipv4 *ct;

  ct = nla_data(a[OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4]);

  SW_FLOW_KEY_PUT(match, ipv4.ct_orig.src, ct->ipv4_src, is_mask);
  SW_FLOW_KEY_PUT(match, ipv4.ct_orig.dst, ct->ipv4_dst, is_mask);
  SW_FLOW_KEY_PUT(match, ct.orig_tp.src, ct->src_port, is_mask);
  SW_FLOW_KEY_PUT(match, ct.orig_tp.dst, ct->dst_port, is_mask);
  SW_FLOW_KEY_PUT(match, ct_orig_proto, ct->ipv4_proto, is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV4);
 }
 if (*attrs & (1ULL << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6)) {
  const struct ovs_key_ct_tuple_ipv6 *ct;

  ct = nla_data(a[OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6]);

  SW_FLOW_KEY_MEMCPY(match, ipv6.ct_orig.src, &ct->ipv6_src,
       sizeof(match->key->ipv6.ct_orig.src),
       is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv6.ct_orig.dst, &ct->ipv6_dst,
       sizeof(match->key->ipv6.ct_orig.dst),
       is_mask);
  SW_FLOW_KEY_PUT(match, ct.orig_tp.src, ct->src_port, is_mask);
  SW_FLOW_KEY_PUT(match, ct.orig_tp.dst, ct->dst_port, is_mask);
  SW_FLOW_KEY_PUT(match, ct_orig_proto, ct->ipv6_proto, is_mask);
  *attrs &= ~(1ULL << OVS_KEY_ATTR_CT_ORIG_TUPLE_IPV6);
 }

 /* For layer 3 packets the Ethernet type is provided
 * and treated as metadata but no MAC addresses are provided.
 */

 if (!(*attrs & (1ULL << OVS_KEY_ATTR_ETHERNET)) &&
     (*attrs & (1ULL << OVS_KEY_ATTR_ETHERTYPE)))
  mac_proto = MAC_PROTO_NONE;

 /* Always exact match mac_proto */
 SW_FLOW_KEY_PUT(match, mac_proto, is_mask ? 0xff : mac_proto, is_mask);

 if (mac_proto == MAC_PROTO_NONE)
  return parse_eth_type_from_nlattrs(match, attrs, a, is_mask,
         log);

 return 0;
}

int nsh_hdr_from_nlattr(const struct nlattr *attr,
   struct nshhdr *nh, size_t size)
{
 struct nlattr *a;
 int rem;
 u8 flags = 0;
 u8 ttl = 0;
 int mdlen = 0;

 /* validate_nsh has check this, so we needn't do duplicate check here
 */

 if (size < NSH_BASE_HDR_LEN)
  return -ENOBUFS;

 nla_for_each_nested(a, attr, rem) {
  int type = nla_type(a);

  switch (type) {
  case OVS_NSH_KEY_ATTR_BASE: {
   const struct ovs_nsh_key_base *base = nla_data(a);

   flags = base->flags;
   ttl = base->ttl;
   nh->np = base->np;
   nh->mdtype = base->mdtype;
   nh->path_hdr = base->path_hdr;
   break;
  }
  case OVS_NSH_KEY_ATTR_MD1:
   mdlen = nla_len(a);
   if (mdlen > size - NSH_BASE_HDR_LEN)
    return -ENOBUFS;
   memcpy(&nh->md1, nla_data(a), mdlen);
   break;

  case OVS_NSH_KEY_ATTR_MD2:
   mdlen = nla_len(a);
   if (mdlen > size - NSH_BASE_HDR_LEN)
    return -ENOBUFS;
   memcpy(&nh->md2, nla_data(a), mdlen);
   break;

  default:
   return -EINVAL;
  }
 }

 /* nsh header length  = NSH_BASE_HDR_LEN + mdlen */
 nh->ver_flags_ttl_len = 0;
 nsh_set_flags_ttl_len(nh, flags, ttl, NSH_BASE_HDR_LEN + mdlen);

 return 0;
}

int nsh_key_from_nlattr(const struct nlattr *attr,
   struct ovs_key_nsh *nsh, struct ovs_key_nsh *nsh_mask)
{
 struct nlattr *a;
 int rem;

 /* validate_nsh has check this, so we needn't do duplicate check here
 */

 nla_for_each_nested(a, attr, rem) {
  int type = nla_type(a);

  switch (type) {
  case OVS_NSH_KEY_ATTR_BASE: {
   const struct ovs_nsh_key_base *base = nla_data(a);
   const struct ovs_nsh_key_base *base_mask = base + 1;

   nsh->base = *base;
   nsh_mask->base = *base_mask;
   break;
  }
  case OVS_NSH_KEY_ATTR_MD1: {
   const struct ovs_nsh_key_md1 *md1 = nla_data(a);
   const struct ovs_nsh_key_md1 *md1_mask = md1 + 1;

   memcpy(nsh->context, md1->context, sizeof(*md1));
   memcpy(nsh_mask->context, md1_mask->context,
          sizeof(*md1_mask));
   break;
  }
  case OVS_NSH_KEY_ATTR_MD2:
   /* Not supported yet */
   return -ENOTSUPP;
  default:
   return -EINVAL;
  }
 }

 return 0;
}

static int nsh_key_put_from_nlattr(const struct nlattr *attr,
       struct sw_flow_match *match, bool is_mask,
       bool is_push_nsh, bool log)
{
 struct nlattr *a;
 int rem;
 bool has_base = false;
 bool has_md1 = false;
 bool has_md2 = false;
 u8 mdtype = 0;
 int mdlen = 0;

 if (WARN_ON(is_push_nsh && is_mask))
  return -EINVAL;

 nla_for_each_nested(a, attr, rem) {
  int type = nla_type(a);
  int i;

  if (type > OVS_NSH_KEY_ATTR_MAX) {
   OVS_NLERR(log, "nsh attr %d is out of range max %d",
      type, OVS_NSH_KEY_ATTR_MAX);
   return -EINVAL;
  }

  if (!check_attr_len(nla_len(a),
        ovs_nsh_key_attr_lens[type].len)) {
   OVS_NLERR(
       log,
       "nsh attr %d has unexpected len %d expected %d",
       type,
       nla_len(a),
       ovs_nsh_key_attr_lens[type].len
   );
   return -EINVAL;
  }

  switch (type) {
  case OVS_NSH_KEY_ATTR_BASE: {
   const struct ovs_nsh_key_base *base = nla_data(a);

   has_base = true;
   mdtype = base->mdtype;
   SW_FLOW_KEY_PUT(match, nsh.base.flags,
     base->flags, is_mask);
   SW_FLOW_KEY_PUT(match, nsh.base.ttl,
     base->ttl, is_mask);
   SW_FLOW_KEY_PUT(match, nsh.base.mdtype,
     base->mdtype, is_mask);
   SW_FLOW_KEY_PUT(match, nsh.base.np,
     base->np, is_mask);
   SW_FLOW_KEY_PUT(match, nsh.base.path_hdr,
     base->path_hdr, is_mask);
   break;
  }
  case OVS_NSH_KEY_ATTR_MD1: {
   const struct ovs_nsh_key_md1 *md1 = nla_data(a);

   has_md1 = true;
   for (i = 0; i < NSH_MD1_CONTEXT_SIZE; i++)
    SW_FLOW_KEY_PUT(match, nsh.context[i],
      md1->context[i], is_mask);
   break;
  }
  case OVS_NSH_KEY_ATTR_MD2:
   if (!is_push_nsh) /* Not supported MD type 2 yet */
    return -ENOTSUPP;

   has_md2 = true;
   mdlen = nla_len(a);
   if (mdlen > NSH_CTX_HDRS_MAX_LEN || mdlen <= 0) {
    OVS_NLERR(
        log,
        "Invalid MD length %d for MD type %d",
        mdlen,
        mdtype
    );
    return -EINVAL;
   }
   break;
  default:
   OVS_NLERR(log, "Unknown nsh attribute %d",
      type);
   return -EINVAL;
  }
 }

 if (rem > 0) {
  OVS_NLERR(log, "nsh attribute has %d unknown bytes.", rem);
  return -EINVAL;
 }

 if (has_md1 && has_md2) {
  OVS_NLERR(
      1,
      "invalid nsh attribute: md1 and md2 are exclusive."
  );
  return -EINVAL;
 }

 if (!is_mask) {
  if ((has_md1 && mdtype != NSH_M_TYPE1) ||
      (has_md2 && mdtype != NSH_M_TYPE2)) {
   OVS_NLERR(1, "nsh attribute has unmatched MD type %d.",
      mdtype);
   return -EINVAL;
  }

  if (is_push_nsh &&
      (!has_base || (!has_md1 && !has_md2))) {
   OVS_NLERR(
       1,
       "push_nsh: missing base or metadata attributes"
   );
   return -EINVAL;
  }
 }

 return 0;
}

static int ovs_key_from_nlattrs(struct net *net, struct sw_flow_match *match,
    u64 attrs, const struct nlattr **a,
    bool is_mask, bool log)
{
 int err;

 err = metadata_from_nlattrs(net, match, &attrs, a, is_mask, log);
 if (err)
  return err;

 if (attrs & (1 << OVS_KEY_ATTR_ETHERNET)) {
  const struct ovs_key_ethernet *eth_key;

  eth_key = nla_data(a[OVS_KEY_ATTR_ETHERNET]);
  SW_FLOW_KEY_MEMCPY(match, eth.src,
    eth_key->eth_src, ETH_ALEN, is_mask);
  SW_FLOW_KEY_MEMCPY(match, eth.dst,
    eth_key->eth_dst, ETH_ALEN, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_ETHERNET);

  if (attrs & (1 << OVS_KEY_ATTR_VLAN)) {
   /* VLAN attribute is always parsed before getting here since it
 * may occur multiple times.
 */

   OVS_NLERR(log, "VLAN attribute unexpected.");
   return -EINVAL;
  }

  if (attrs & (1 << OVS_KEY_ATTR_ETHERTYPE)) {
   err = parse_eth_type_from_nlattrs(match, &attrs, a, is_mask,
         log);
   if (err)
    return err;
  } else if (!is_mask) {
   SW_FLOW_KEY_PUT(match, eth.type, htons(ETH_P_802_2), is_mask);
  }
 } else if (!match->key->eth.type) {
  OVS_NLERR(log, "Either Ethernet header or EtherType is required.");
  return -EINVAL;
 }

 if (attrs & (1 << OVS_KEY_ATTR_IPV4)) {
  const struct ovs_key_ipv4 *ipv4_key;

  ipv4_key = nla_data(a[OVS_KEY_ATTR_IPV4]);
  if (!is_mask && ipv4_key->ipv4_frag > OVS_FRAG_TYPE_MAX) {
   OVS_NLERR(log, "IPv4 frag type %d is out of range max %d",
      ipv4_key->ipv4_frag, OVS_FRAG_TYPE_MAX);
   return -EINVAL;
  }
  SW_FLOW_KEY_PUT(match, ip.proto,
    ipv4_key->ipv4_proto, is_mask);
  SW_FLOW_KEY_PUT(match, ip.tos,
    ipv4_key->ipv4_tos, is_mask);
  SW_FLOW_KEY_PUT(match, ip.ttl,
    ipv4_key->ipv4_ttl, is_mask);
  SW_FLOW_KEY_PUT(match, ip.frag,
    ipv4_key->ipv4_frag, is_mask);
  SW_FLOW_KEY_PUT(match, ipv4.addr.src,
    ipv4_key->ipv4_src, is_mask);
  SW_FLOW_KEY_PUT(match, ipv4.addr.dst,
    ipv4_key->ipv4_dst, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_IPV4);
 }

 if (attrs & (1 << OVS_KEY_ATTR_IPV6)) {
  const struct ovs_key_ipv6 *ipv6_key;

  ipv6_key = nla_data(a[OVS_KEY_ATTR_IPV6]);
  if (!is_mask && ipv6_key->ipv6_frag > OVS_FRAG_TYPE_MAX) {
   OVS_NLERR(log, "IPv6 frag type %d is out of range max %d",
      ipv6_key->ipv6_frag, OVS_FRAG_TYPE_MAX);
   return -EINVAL;
  }

  if (!is_mask && ipv6_key->ipv6_label & htonl(0xFFF00000)) {
   OVS_NLERR(log, "IPv6 flow label %x is out of range (max=%x)",
      ntohl(ipv6_key->ipv6_label), (1 << 20) - 1);
   return -EINVAL;
  }

  SW_FLOW_KEY_PUT(match, ipv6.label,
    ipv6_key->ipv6_label, is_mask);
  SW_FLOW_KEY_PUT(match, ip.proto,
    ipv6_key->ipv6_proto, is_mask);
  SW_FLOW_KEY_PUT(match, ip.tos,
    ipv6_key->ipv6_tclass, is_mask);
  SW_FLOW_KEY_PUT(match, ip.ttl,
    ipv6_key->ipv6_hlimit, is_mask);
  SW_FLOW_KEY_PUT(match, ip.frag,
    ipv6_key->ipv6_frag, is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv6.addr.src,
    ipv6_key->ipv6_src,
    sizeof(match->key->ipv6.addr.src),
    is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv6.addr.dst,
    ipv6_key->ipv6_dst,
    sizeof(match->key->ipv6.addr.dst),
    is_mask);

  attrs &= ~(1 << OVS_KEY_ATTR_IPV6);
 }

 if (attrs & (1ULL << OVS_KEY_ATTR_IPV6_EXTHDRS)) {
  const struct ovs_key_ipv6_exthdrs *ipv6_exthdrs_key;

  ipv6_exthdrs_key = nla_data(a[OVS_KEY_ATTR_IPV6_EXTHDRS]);

  SW_FLOW_KEY_PUT(match, ipv6.exthdrs,
    ipv6_exthdrs_key->hdrs, is_mask);

  attrs &= ~(1ULL << OVS_KEY_ATTR_IPV6_EXTHDRS);
 }

 if (attrs & (1 << OVS_KEY_ATTR_ARP)) {
  const struct ovs_key_arp *arp_key;

  arp_key = nla_data(a[OVS_KEY_ATTR_ARP]);
  if (!is_mask && (arp_key->arp_op & htons(0xff00))) {
   OVS_NLERR(log, "Unknown ARP opcode (opcode=%d).",
      arp_key->arp_op);
   return -EINVAL;
  }

  SW_FLOW_KEY_PUT(match, ipv4.addr.src,
    arp_key->arp_sip, is_mask);
  SW_FLOW_KEY_PUT(match, ipv4.addr.dst,
   arp_key->arp_tip, is_mask);
  SW_FLOW_KEY_PUT(match, ip.proto,
    ntohs(arp_key->arp_op), is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv4.arp.sha,
    arp_key->arp_sha, ETH_ALEN, is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv4.arp.tha,
    arp_key->arp_tha, ETH_ALEN, is_mask);

  attrs &= ~(1 << OVS_KEY_ATTR_ARP);
 }

 if (attrs & (1 << OVS_KEY_ATTR_NSH)) {
  if (nsh_key_put_from_nlattr(a[OVS_KEY_ATTR_NSH], match,
         is_mask, false, log) < 0)
   return -EINVAL;
  attrs &= ~(1 << OVS_KEY_ATTR_NSH);
 }

 if (attrs & (1 << OVS_KEY_ATTR_MPLS)) {
  const struct ovs_key_mpls *mpls_key;
  u32 hdr_len;
  u32 label_count, label_count_mask, i;

  mpls_key = nla_data(a[OVS_KEY_ATTR_MPLS]);
  hdr_len = nla_len(a[OVS_KEY_ATTR_MPLS]);
  label_count = hdr_len / sizeof(struct ovs_key_mpls);

  if (label_count == 0 || label_count > MPLS_LABEL_DEPTH ||
      hdr_len % sizeof(struct ovs_key_mpls))
   return -EINVAL;

  label_count_mask =  GENMASK(label_count - 1, 0);

  for (i = 0 ; i < label_count; i++)
   SW_FLOW_KEY_PUT(match, mpls.lse[i],
     mpls_key[i].mpls_lse, is_mask);

  SW_FLOW_KEY_PUT(match, mpls.num_labels_mask,
    label_count_mask, is_mask);

  attrs &= ~(1 << OVS_KEY_ATTR_MPLS);
  }

 if (attrs & (1 << OVS_KEY_ATTR_TCP)) {
  const struct ovs_key_tcp *tcp_key;

  tcp_key = nla_data(a[OVS_KEY_ATTR_TCP]);
  SW_FLOW_KEY_PUT(match, tp.src, tcp_key->tcp_src, is_mask);
  SW_FLOW_KEY_PUT(match, tp.dst, tcp_key->tcp_dst, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_TCP);
 }

 if (attrs & (1 << OVS_KEY_ATTR_TCP_FLAGS)) {
  SW_FLOW_KEY_PUT(match, tp.flags,
    nla_get_be16(a[OVS_KEY_ATTR_TCP_FLAGS]),
    is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_TCP_FLAGS);
 }

 if (attrs & (1 << OVS_KEY_ATTR_UDP)) {
  const struct ovs_key_udp *udp_key;

  udp_key = nla_data(a[OVS_KEY_ATTR_UDP]);
  SW_FLOW_KEY_PUT(match, tp.src, udp_key->udp_src, is_mask);
  SW_FLOW_KEY_PUT(match, tp.dst, udp_key->udp_dst, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_UDP);
 }

 if (attrs & (1 << OVS_KEY_ATTR_SCTP)) {
  const struct ovs_key_sctp *sctp_key;

  sctp_key = nla_data(a[OVS_KEY_ATTR_SCTP]);
  SW_FLOW_KEY_PUT(match, tp.src, sctp_key->sctp_src, is_mask);
  SW_FLOW_KEY_PUT(match, tp.dst, sctp_key->sctp_dst, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_SCTP);
 }

 if (attrs & (1 << OVS_KEY_ATTR_ICMP)) {
  const struct ovs_key_icmp *icmp_key;

  icmp_key = nla_data(a[OVS_KEY_ATTR_ICMP]);
  SW_FLOW_KEY_PUT(match, tp.src,
    htons(icmp_key->icmp_type), is_mask);
  SW_FLOW_KEY_PUT(match, tp.dst,
    htons(icmp_key->icmp_code), is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_ICMP);
 }

 if (attrs & (1 << OVS_KEY_ATTR_ICMPV6)) {
  const struct ovs_key_icmpv6 *icmpv6_key;

  icmpv6_key = nla_data(a[OVS_KEY_ATTR_ICMPV6]);
  SW_FLOW_KEY_PUT(match, tp.src,
    htons(icmpv6_key->icmpv6_type), is_mask);
  SW_FLOW_KEY_PUT(match, tp.dst,
    htons(icmpv6_key->icmpv6_code), is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_ICMPV6);
 }

 if (attrs & (1 << OVS_KEY_ATTR_ND)) {
  const struct ovs_key_nd *nd_key;

  nd_key = nla_data(a[OVS_KEY_ATTR_ND]);
  SW_FLOW_KEY_MEMCPY(match, ipv6.nd.target,
   nd_key->nd_target,
   sizeof(match->key->ipv6.nd.target),
   is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv6.nd.sll,
   nd_key->nd_sll, ETH_ALEN, is_mask);
  SW_FLOW_KEY_MEMCPY(match, ipv6.nd.tll,
    nd_key->nd_tll, ETH_ALEN, is_mask);
  attrs &= ~(1 << OVS_KEY_ATTR_ND);
 }

 if (attrs != 0) {
  OVS_NLERR(log, "Unknown key attributes %llx",
     (unsigned long long)attrs);
  return -EINVAL;
 }

 return 0;
}

static void nlattr_set(struct nlattr *attr, u8 val,
         const struct ovs_len_tbl *tbl)
{
 struct nlattr *nla;
 int rem;

 /* The nlattr stream should already have been validated */
 nla_for_each_nested(nla, attr, rem) {
  if (tbl[nla_type(nla)].len == OVS_ATTR_NESTED)
   nlattr_set(nla, val, tbl[nla_type(nla)].next ? : tbl);
  else
   memset(nla_data(nla), val, nla_len(nla));

  if (nla_type(nla) == OVS_KEY_ATTR_CT_STATE)
   *(u32 *)nla_data(nla) &= CT_SUPPORTED_MASK;
 }
}

static void mask_set_nlattr(struct nlattr *attr, u8 val)
{
 nlattr_set(attr, val, ovs_key_lens);
}

/**
 * ovs_nla_get_match - parses Netlink attributes into a flow key and
 * mask. In case the 'mask' is NULL, the flow is treated as exact match
 * flow. Otherwise, it is treated as a wildcarded flow, except the mask
 * does not include any don't care bit.
 * @net: Used to determine per-namespace field support.
 * @match: receives the extracted flow match information.
 * @nla_key: Netlink attribute holding nested %OVS_KEY_ATTR_* Netlink attribute
 * sequence. The fields should of the packet that triggered the creation
 * of this flow.
 * @nla_mask: Optional. Netlink attribute holding nested %OVS_KEY_ATTR_*
 * Netlink attribute specifies the mask field of the wildcarded flow.
 * @log: Boolean to allow kernel error logging.  Normally true, but when
 * probing for feature compatibility this should be passed in as false to
 * suppress unnecessary error logging.
 */

int ovs_nla_get_match(struct net *net, struct sw_flow_match *match,
        const struct nlattr *nla_key,
        const struct nlattr *nla_mask,
        bool log)
{
 const struct nlattr *a[OVS_KEY_ATTR_MAX + 1];
 struct nlattr *newmask = NULL;
 u64 key_attrs = 0;
 u64 mask_attrs = 0;
 int err;

 err = parse_flow_nlattrs(nla_key, a, &key_attrs, log);
 if (err)
  return err;

 err = parse_vlan_from_nlattrs(match, &key_attrs, a, false, log);
 if (err)
  return err;

 err = ovs_key_from_nlattrs(net, match, key_attrs, a, false, log);
 if (err)
  return err;

 if (match->mask) {
  if (!nla_mask) {
   /* Create an exact match mask. We need to set to 0xff
 * all the 'match->mask' fields that have been touched
 * in 'match->key'. We cannot simply memset
 * 'match->mask', because padding bytes and fields not
 * specified in 'match->key' should be left to 0.
 * Instead, we use a stream of netlink attributes,
 * copied from 'key' and set to 0xff.
 * ovs_key_from_nlattrs() will take care of filling
 * 'match->mask' appropriately.
 */

   newmask = kmemdup(nla_key,
       nla_total_size(nla_len(nla_key)),
       GFP_KERNEL);
   if (!newmask)
    return -ENOMEM;

   mask_set_nlattr(newmask, 0xff);

   /* The userspace does not send tunnel attributes that
 * are 0, but we should not wildcard them nonetheless.
 */

   if (match->key->tun_proto)
    SW_FLOW_KEY_MEMSET_FIELD(match, tun_key,
        0xff, true);

   nla_mask = newmask;
  }

  err = parse_flow_mask_nlattrs(nla_mask, a, &mask_attrs, log);
  if (err)
   goto free_newmask;

  /* Always match on tci. */
  SW_FLOW_KEY_PUT(match, eth.vlan.tci, htons(0xffff), true);
  SW_FLOW_KEY_PUT(match, eth.cvlan.tci, htons(0xffff), true);

  err = parse_vlan_from_nlattrs(match, &mask_attrs, a, true, log);
  if (err)
   goto free_newmask;

  err = ovs_key_from_nlattrs(net, match, mask_attrs, a, true,
        log);
  if (err)
   goto free_newmask;
 }

 if (!match_validate(match, key_attrs, mask_attrs, log))
  err = -EINVAL;

free_newmask:
 kfree(newmask);
 return err;
}

static size_t get_ufid_len(const struct nlattr *attr, bool log)
{
 size_t len;

 if (!attr)
  return 0;

 len = nla_len(attr);
 if (len < 1 || len > MAX_UFID_LENGTH) {
  OVS_NLERR(log, "ufid size %u bytes exceeds the range (1, %d)",
     nla_len(attr), MAX_UFID_LENGTH);
  return 0;
 }

 return len;
}

/* Initializes 'flow->ufid', returning true if 'attr' contains a valid UFID,
 * or false otherwise.
 */

bool ovs_nla_get_ufid(struct sw_flow_id *sfid, const struct nlattr *attr,
        bool log)
{
 sfid->ufid_len = get_ufid_len(attr, log);
 if (sfid->ufid_len)
  memcpy(sfid->ufid, nla_data(attr), sfid->ufid_len);

 return sfid->ufid_len;
}

int ovs_nla_get_identifier(struct sw_flow_id *sfid, const struct nlattr *ufid,
      const struct sw_flow_key *key, bool log)
{
 struct sw_flow_key *new_key;

 if (ovs_nla_get_ufid(sfid, ufid, log))
  return 0;

 /* If UFID was not provided, use unmasked key. */
 new_key = kmalloc(sizeof(*new_key), GFP_KERNEL);
 if (!new_key)
  return -ENOMEM;
 memcpy(new_key, key, sizeof(*key));
 sfid->unmasked_key = new_key;

 return 0;
}

u32 ovs_nla_get_ufid_flags(const struct nlattr *attr)
{
 return nla_get_u32_default(attr, 0);
}

/**
 * ovs_nla_get_flow_metadata - parses Netlink attributes into a flow key.
 * @net: Network namespace.
 * @key: Receives extracted in_port, priority, tun_key, skb_mark and conntrack
 * metadata.
 * @a: Array of netlink attributes holding parsed %OVS_KEY_ATTR_* Netlink
 * attributes.
 * @attrs: Bit mask for the netlink attributes included in @a.
 * @log: Boolean to allow kernel error logging.  Normally true, but when
 * probing for feature compatibility this should be passed in as false to
 * suppress unnecessary error logging.
 *
 * This parses a series of Netlink attributes that form a flow key, which must
 * take the same form accepted by flow_from_nlattrs(), but only enough of it to
 * get the metadata, that is, the parts of the flow key that cannot be
 * extracted from the packet itself.
 *
 * This must be called before the packet key fields are filled in 'key'.
 */


int ovs_nla_get_flow_metadata(struct net *net,
         const struct nlattr *a[OVS_KEY_ATTR_MAX + 1],
         u64 attrs, struct sw_flow_key *key, bool log)
{
 struct sw_flow_match match;

 memset(&match, 0, sizeof(match));
 match.key = key;

 key->ct_state = 0;
 key->ct_zone = 0;
 key->ct_orig_proto = 0;
 memset(&key->ct, 0, sizeof(key->ct));
 memset(&key->ipv4.ct_orig, 0, sizeof(key->ipv4.ct_orig));
 memset(&key->ipv6.ct_orig, 0, sizeof(key->ipv6.ct_orig));

 key->phy.in_port = DP_MAX_PORTS;

 return metadata_from_nlattrs(net, &match, &attrs, a, false, log);
}

static int ovs_nla_put_vlan(struct sk_buff *skb, const struct vlan_head *vh,
       bool is_mask)
{
 __be16 eth_type = !is_mask ? vh->tpid : htons(0xffff);

 if (nla_put_be16(skb, OVS_KEY_ATTR_ETHERTYPE, eth_type) ||
     nla_put_be16(skb, OVS_KEY_ATTR_VLAN, vh->tci))
  return -EMSGSIZE;
 return 0;
}

static int nsh_key_to_nlattr(const struct ovs_key_nsh *nsh, bool is_mask,
        struct sk_buff *skb)
{
 struct nlattr *start;

 start = nla_nest_start_noflag(skb, OVS_KEY_ATTR_NSH);
 if (!start)
  return -EMSGSIZE;

 if (nla_put(skb, OVS_NSH_KEY_ATTR_BASE, sizeof(nsh->base), &nsh->base))
  goto nla_put_failure;

 if (is_mask || nsh->base.mdtype == NSH_M_TYPE1) {
  if (nla_put(skb, OVS_NSH_KEY_ATTR_MD1,
       sizeof(nsh->context), nsh->context))
   goto nla_put_failure;
 }

 /* Don't support MD type 2 yet */

 nla_nest_end(skb, start);

 return 0;

nla_put_failure:
 return -EMSGSIZE;
}

static int __ovs_nla_put_key(const struct sw_flow_key *swkey,
        const struct sw_flow_key *output, bool is_mask,
        struct sk_buff *skb)
{
 struct ovs_key_ethernet *eth_key;
 struct nlattr *nla;
 struct nlattr *encap = NULL;
 struct nlattr *in_encap = NULL;

 if (nla_put_u32(skb, OVS_KEY_ATTR_RECIRC_ID, output->recirc_id))
  goto nla_put_failure;

 if (nla_put_u32(skb, OVS_KEY_ATTR_DP_HASH, output->ovs_flow_hash))
  goto nla_put_failure;

 if (nla_put_u32(skb, OVS_KEY_ATTR_PRIORITY, output->phy.priority))
  goto nla_put_failure;

 if ((swkey->tun_proto || is_mask)) {
  const void *opts = NULL;

  if (ip_tunnel_is_options_present(output->tun_key.tun_flags))
   opts = TUN_METADATA_OPTS(output, swkey->tun_opts_len);

  if (ip_tun_to_nlattr(skb, &output->tun_key, opts,
         swkey->tun_opts_len, swkey->tun_proto, 0))
   goto nla_put_failure;
 }

 if (swkey->phy.in_port == DP_MAX_PORTS) {
  if (is_mask && (output->phy.in_port == 0xffff))
   if (nla_put_u32(skb, OVS_KEY_ATTR_IN_PORT, 0xffffffff))
    goto nla_put_failure;
 } else {
  u16 upper_u16;
  upper_u16 = !is_mask ? 0 : 0xffff;

  if (nla_put_u32(skb, OVS_KEY_ATTR_IN_PORT,
    (upper_u16 << 16) | output->phy.in_port))
   goto nla_put_failure;
 }

 if (nla_put_u32(skb, OVS_KEY_ATTR_SKB_MARK, output->phy.skb_mark))
  goto nla_put_failure;

 if (ovs_ct_put_key(swkey, output, skb))
  goto nla_put_failure;

 if (ovs_key_mac_proto(swkey) == MAC_PROTO_ETHERNET) {
  nla = nla_reserve(skb, OVS_KEY_ATTR_ETHERNET, sizeof(*eth_key));
  if (!nla)
   goto nla_put_failure;

  eth_key = nla_data(nla);
  ether_addr_copy(eth_key->eth_src, output->eth.src);
  ether_addr_copy(eth_key->eth_dst, output->eth.dst);

  if (swkey->eth.vlan.tci || eth_type_vlan(swkey->eth.type)) {
   if (ovs_nla_put_vlan(skb, &output->eth.vlan, is_mask))
    goto nla_put_failure;
   encap = nla_nest_start_noflag(skb, OVS_KEY_ATTR_ENCAP);
   if (!swkey->eth.vlan.tci)
    goto unencap;

   if (swkey->eth.cvlan.tci || eth_type_vlan(swkey->eth.type)) {
    if (ovs_nla_put_vlan(skb, &output->eth.cvlan, is_mask))
     goto nla_put_failure;
    in_encap = nla_nest_start_noflag(skb,
         OVS_KEY_ATTR_ENCAP);
    if (!swkey->eth.cvlan.tci)
     goto unencap;
   }
  }

  if (swkey->eth.type == htons(ETH_P_802_2)) {
   /*
* Ethertype 802.2 is represented in the netlink with omitted
* OVS_KEY_ATTR_ETHERTYPE in the flow key attribute, and
* 0xffff in the mask attribute.  Ethertype can also
* be wildcarded.
*/

   if (is_mask && output->eth.type)
    if (nla_put_be16(skb, OVS_KEY_ATTR_ETHERTYPE,
       output->eth.type))
     goto nla_put_failure;
   goto unencap;
  }
 }

 if (nla_put_be16(skb, OVS_KEY_ATTR_ETHERTYPE, output->eth.type))
  goto nla_put_failure;

 if (eth_type_vlan(swkey->eth.type)) {
  /* There are 3 VLAN tags, we don't know anything about the rest
 * of the packet, so truncate here.
 */

  WARN_ON_ONCE(!(encap && in_encap));
  goto unencap;
 }

 if (swkey->eth.type == htons(ETH_P_IP)) {
  struct ovs_key_ipv4 *ipv4_key;

  nla = nla_reserve(skb, OVS_KEY_ATTR_IPV4, sizeof(*ipv4_key));
  if (!nla)
   goto nla_put_failure;
  ipv4_key = nla_data(nla);
  ipv4_key->ipv4_src = output->ipv4.addr.src;
  ipv4_key->ipv4_dst = output->ipv4.addr.dst;
  ipv4_key->ipv4_proto = output->ip.proto;
  ipv4_key->ipv4_tos = output->ip.tos;
  ipv4_key->ipv4_ttl = output->ip.ttl;
  ipv4_key->ipv4_frag = output->ip.frag;
 } else if (swkey->eth.type == htons(ETH_P_IPV6)) {
  struct ovs_key_ipv6 *ipv6_key;
  struct ovs_key_ipv6_exthdrs *ipv6_exthdrs_key;

  nla = nla_reserve(skb, OVS_KEY_ATTR_IPV6, sizeof(*ipv6_key));
  if (!nla)
   goto nla_put_failure;
  ipv6_key = nla_data(nla);
  memcpy(ipv6_key->ipv6_src, &output->ipv6.addr.src,
    sizeof(ipv6_key->ipv6_src));
  memcpy(ipv6_key->ipv6_dst, &output->ipv6.addr.dst,
    sizeof(ipv6_key->ipv6_dst));
  ipv6_key->ipv6_label = output->ipv6.label;
  ipv6_key->ipv6_proto = output->ip.proto;
  ipv6_key->ipv6_tclass = output->ip.tos;
  ipv6_key->ipv6_hlimit = output->ip.ttl;
  ipv6_key->ipv6_frag = output->ip.frag;

  nla = nla_reserve(skb, OVS_KEY_ATTR_IPV6_EXTHDRS,
      sizeof(*ipv6_exthdrs_key));
  if (!nla)
   goto nla_put_failure;
  ipv6_exthdrs_key = nla_data(nla);
  ipv6_exthdrs_key->hdrs = output->ipv6.exthdrs;
 } else if (swkey->eth.type == htons(ETH_P_NSH)) {
  if (nsh_key_to_nlattr(&output->nsh, is_mask, skb))
   goto nla_put_failure;
 } else if (swkey->eth.type == htons(ETH_P_ARP) ||
     swkey->eth.type == htons(ETH_P_RARP)) {
  struct ovs_key_arp *arp_key;

  nla = nla_reserve(skb, OVS_KEY_ATTR_ARP, sizeof(*arp_key));
  if (!nla)
   goto nla_put_failure;
  arp_key = nla_data(nla);
  memset(arp_key, 0, sizeof(struct ovs_key_arp));
  arp_key->arp_sip = output->ipv4.addr.src;
  arp_key->arp_tip = output->ipv4.addr.dst;
  arp_key->arp_op = htons(output->ip.proto);
  ether_addr_copy(arp_key->arp_sha, output->ipv4.arp.sha);
  ether_addr_copy(arp_key->arp_tha, output->ipv4.arp.tha);
 } else if (eth_p_mpls(swkey->eth.type)) {
  u8 i, num_labels;
  struct ovs_key_mpls *mpls_key;

  num_labels = hweight_long(output->mpls.num_labels_mask);
  nla = nla_reserve(skb, OVS_KEY_ATTR_MPLS,
      num_labels * sizeof(*mpls_key));
  if (!nla)
   goto nla_put_failure;

  mpls_key = nla_data(nla);
  for (i = 0; i < num_labels; i++)
   mpls_key[i].mpls_lse = output->mpls.lse[i];
 }

 if ((swkey->eth.type == htons(ETH_P_IP) ||
      swkey->eth.type == htons(ETH_P_IPV6)) &&
      swkey->ip.frag != OVS_FRAG_TYPE_LATER) {

  if (swkey->ip.proto == IPPROTO_TCP) {
   struct ovs_key_tcp *tcp_key;

   nla = nla_reserve(skb, OVS_KEY_ATTR_TCP, sizeof(*tcp_key));
   if (!nla)
    goto nla_put_failure;
   tcp_key = nla_data(nla);
   tcp_key->tcp_src = output->tp.src;
   tcp_key->tcp_dst = output->tp.dst;
   if (nla_put_be16(skb, OVS_KEY_ATTR_TCP_FLAGS,
      output->tp.flags))
    goto nla_put_failure;
  } else if (swkey->ip.proto == IPPROTO_UDP) {
   struct ovs_key_udp *udp_key;

   nla = nla_reserve(skb, OVS_KEY_ATTR_UDP, sizeof(*udp_key));
   if (!nla)
    goto nla_put_failure;
   udp_key = nla_data(nla);
   udp_key->udp_src = output->tp.src;
   udp_key->udp_dst = output->tp.dst;
  } else if (swkey->ip.proto == IPPROTO_SCTP) {
   struct ovs_key_sctp *sctp_key;

   nla = nla_reserve(skb, OVS_KEY_ATTR_SCTP, sizeof(*sctp_key));
   if (!nla)
    goto nla_put_failure;
   sctp_key = nla_data(nla);
   sctp_key->sctp_src = output->tp.src;
   sctp_key->sctp_dst = output->tp.dst;
  } else if (swkey->eth.type == htons(ETH_P_IP) &&
      swkey->ip.proto == IPPROTO_ICMP) {
   struct ovs_key_icmp *icmp_key;

   nla = nla_reserve(skb, OVS_KEY_ATTR_ICMP, sizeof(*icmp_key));
   if (!nla)
    goto nla_put_failure;
   icmp_key = nla_data(nla);
   icmp_key->icmp_type = ntohs(output->tp.src);
   icmp_key->icmp_code = ntohs(output->tp.dst);
  } else if (swkey->eth.type == htons(ETH_P_IPV6) &&
      swkey->ip.proto == IPPROTO_ICMPV6) {
   struct ovs_key_icmpv6 *icmpv6_key;

   nla = nla_reserve(skb, OVS_KEY_ATTR_ICMPV6,
      sizeof(*icmpv6_key));
   if (!nla)
    goto nla_put_failure;
   icmpv6_key = nla_data(nla);
   icmpv6_key->icmpv6_type = ntohs(output->tp.src);
   icmpv6_key->icmpv6_code = ntohs(output->tp.dst);

   if (swkey->tp.src == htons(NDISC_NEIGHBOUR_SOLICITATION) ||
       swkey->tp.src == htons(NDISC_NEIGHBOUR_ADVERTISEMENT)) {
    struct ovs_key_nd *nd_key;

    nla = nla_reserve(skb, OVS_KEY_ATTR_ND, sizeof(*nd_key));
    if (!nla)
     goto nla_put_failure;
    nd_key = nla_data(nla);
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=94 H=98 G=95

¤ Dauer der Verarbeitung: 0.22 Sekunden  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.