Quellcodebibliothek Statistik Leitseite products/sources/formale Sprachen/C/Linux/drivers/pci/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 91 kB image not shown  

Quelle  probe.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0
/*
 * PCI detection and setup code
 */


#include <linux/kernel.h>
#include <linux/delay.h>
#include <linux/init.h>
#include <linux/pci.h>
#include <linux/msi.h>
#include <linux/of_pci.h>
#include <linux/of_platform.h>
#include <linux/platform_device.h>
#include <linux/pci_hotplug.h>
#include <linux/slab.h>
#include <linux/module.h>
#include <linux/cpumask.h>
#include <linux/aer.h>
#include <linux/acpi.h>
#include <linux/hypervisor.h>
#include <linux/irqdomain.h>
#include <linux/pm_runtime.h>
#include <linux/bitfield.h>
#include "pci.h"

#define CARDBUS_LATENCY_TIMER 176 /* secondary latency timer */
#define CARDBUS_RESERVE_BUSNR 3

static struct resource busn_resource = {
 .name = "PCI busn",
 .start = 0,
 .end = 255,
 .flags = IORESOURCE_BUS,
};

/* Ugh.  Need to stop exporting this to modules. */
LIST_HEAD(pci_root_buses);
EXPORT_SYMBOL(pci_root_buses);

static LIST_HEAD(pci_domain_busn_res_list);

struct pci_domain_busn_res {
 struct list_head list;
 struct resource res;
 int domain_nr;
};

static struct resource *get_pci_domain_busn_res(int domain_nr)
{
 struct pci_domain_busn_res *r;

 list_for_each_entry(r, &pci_domain_busn_res_list, list)
  if (r->domain_nr == domain_nr)
   return &r->res;

 r = kzalloc(sizeof(*r), GFP_KERNEL);
 if (!r)
  return NULL;

 r->domain_nr = domain_nr;
 r->res.start = 0;
 r->res.end = 0xff;
 r->res.flags = IORESOURCE_BUS | IORESOURCE_PCI_FIXED;

 list_add_tail(&r->list, &pci_domain_busn_res_list);

 return &r->res;
}

/*
 * Some device drivers need know if PCI is initiated.
 * Basically, we think PCI is not initiated when there
 * is no device to be found on the pci_bus_type.
 */

int no_pci_devices(void)
{
 struct device *dev;
 int no_devices;

 dev = bus_find_next_device(&pci_bus_type, NULL);
 no_devices = (dev == NULL);
 put_device(dev);
 return no_devices;
}
EXPORT_SYMBOL(no_pci_devices);

/*
 * PCI Bus Class
 */

static void release_pcibus_dev(struct device *dev)
{
 struct pci_bus *pci_bus = to_pci_bus(dev);

 put_device(pci_bus->bridge);
 pci_bus_remove_resources(pci_bus);
 pci_release_bus_of_node(pci_bus);
 kfree(pci_bus);
}

static const struct class pcibus_class = {
 .name  = "pci_bus",
 .dev_release = &release_pcibus_dev,
 .dev_groups = pcibus_groups,
};

static int __init pcibus_class_init(void)
{
 return class_register(&pcibus_class);
}
postcore_initcall(pcibus_class_init);

static u64 pci_size(u64 base, u64 maxbase, u64 mask)
{
 u64 size = mask & maxbase; /* Find the significant bits */
 if (!size)
  return 0;

 /*
 * Get the lowest of them to find the decode size, and from that
 * the extent.
 */

 size = size & ~(size-1);

 /*
 * base == maxbase can be valid only if the BAR has already been
 * programmed with all 1s.
 */

 if (base == maxbase && ((base | (size - 1)) & mask) != mask)
  return 0;

 return size;
}

static inline unsigned long decode_bar(struct pci_dev *dev, u32 bar)
{
 u32 mem_type;
 unsigned long flags;

 if ((bar & PCI_BASE_ADDRESS_SPACE) == PCI_BASE_ADDRESS_SPACE_IO) {
  flags = bar & ~PCI_BASE_ADDRESS_IO_MASK;
  flags |= IORESOURCE_IO;
  return flags;
 }

 flags = bar & ~PCI_BASE_ADDRESS_MEM_MASK;
 flags |= IORESOURCE_MEM;
 if (flags & PCI_BASE_ADDRESS_MEM_PREFETCH)
  flags |= IORESOURCE_PREFETCH;

 mem_type = bar & PCI_BASE_ADDRESS_MEM_TYPE_MASK;
 switch (mem_type) {
 case PCI_BASE_ADDRESS_MEM_TYPE_32:
  break;
 case PCI_BASE_ADDRESS_MEM_TYPE_1M:
  /* 1M mem BAR treated as 32-bit BAR */
  break;
 case PCI_BASE_ADDRESS_MEM_TYPE_64:
  flags |= IORESOURCE_MEM_64;
  break;
 default:
  /* mem unknown type treated as 32-bit BAR */
  break;
 }
 return flags;
}

#define PCI_COMMAND_DECODE_ENABLE (PCI_COMMAND_MEMORY | PCI_COMMAND_IO)

/**
 * __pci_size_bars - Read the raw BAR mask for a range of PCI BARs
 * @dev: the PCI device
 * @count: number of BARs to size
 * @pos: starting config space position
 * @sizes: array to store mask values
 * @rom: indicate whether to use ROM mask, which avoids enabling ROM BARs
 *
 * Provided @sizes array must be sufficiently sized to store results for
 * @count u32 BARs.  Caller is responsible for disabling decode to specified
 * BAR range around calling this function.  This function is intended to avoid
 * disabling decode around sizing each BAR individually, which can result in
 * non-trivial overhead in virtualized environments with very large PCI BARs.
 */

static void __pci_size_bars(struct pci_dev *dev, int count,
       unsigned int pos, u32 *sizes, bool rom)
{
 u32 orig, mask = rom ? PCI_ROM_ADDRESS_MASK : ~0;
 int i;

 for (i = 0; i < count; i++, pos += 4, sizes++) {
  pci_read_config_dword(dev, pos, &orig);
  pci_write_config_dword(dev, pos, mask);
  pci_read_config_dword(dev, pos, sizes);
  pci_write_config_dword(dev, pos, orig);
 }
}

void __pci_size_stdbars(struct pci_dev *dev, int count,
   unsigned int pos, u32 *sizes)
{
 __pci_size_bars(dev, count, pos, sizes, false);
}

static void __pci_size_rom(struct pci_dev *dev, unsigned int pos, u32 *sizes)
{
 __pci_size_bars(dev, 1, pos, sizes, true);
}

/**
 * __pci_read_base - Read a PCI BAR
 * @dev: the PCI device
 * @type: type of the BAR
 * @res: resource buffer to be filled in
 * @pos: BAR position in the config space
 * @sizes: array of one or more pre-read BAR masks
 *
 * Returns 1 if the BAR is 64-bit, or 0 if 32-bit.
 */

int __pci_read_base(struct pci_dev *dev, enum pci_bar_type type,
      struct resource *res, unsigned int pos, u32 *sizes)
{
 u32 l = 0, sz;
 u64 l64, sz64, mask64;
 struct pci_bus_region region, inverted_region;
 const char *res_name = pci_resource_name(dev, res - dev->resource);

 res->name = pci_name(dev);

 pci_read_config_dword(dev, pos, &l);
 sz = sizes[0];

 /*
 * All bits set in sz means the device isn't working properly.
 * If the BAR isn't implemented, all bits must be 0.  If it's a
 * memory BAR or a ROM, bit 0 must be clear; if it's an io BAR, bit
 * 1 must be clear.
 */

 if (PCI_POSSIBLE_ERROR(sz))
  sz = 0;

 /*
 * I don't know how l can have all bits set.  Copied from old code.
 * Maybe it fixes a bug on some ancient platform.
 */

 if (PCI_POSSIBLE_ERROR(l))
  l = 0;

 if (type == pci_bar_unknown) {
  res->flags = decode_bar(dev, l);
  res->flags |= IORESOURCE_SIZEALIGN;
  if (res->flags & IORESOURCE_IO) {
   l64 = l & PCI_BASE_ADDRESS_IO_MASK;
   sz64 = sz & PCI_BASE_ADDRESS_IO_MASK;
   mask64 = PCI_BASE_ADDRESS_IO_MASK & (u32)IO_SPACE_LIMIT;
  } else {
   l64 = l & PCI_BASE_ADDRESS_MEM_MASK;
   sz64 = sz & PCI_BASE_ADDRESS_MEM_MASK;
   mask64 = (u32)PCI_BASE_ADDRESS_MEM_MASK;
  }
 } else {
  if (l & PCI_ROM_ADDRESS_ENABLE)
   res->flags |= IORESOURCE_ROM_ENABLE;
  l64 = l & PCI_ROM_ADDRESS_MASK;
  sz64 = sz & PCI_ROM_ADDRESS_MASK;
  mask64 = PCI_ROM_ADDRESS_MASK;
 }

 if (res->flags & IORESOURCE_MEM_64) {
  pci_read_config_dword(dev, pos + 4, &l);
  sz = sizes[1];

  l64 |= ((u64)l << 32);
  sz64 |= ((u64)sz << 32);
  mask64 |= ((u64)~0 << 32);
 }

 if (!sz64)
  goto fail;

 sz64 = pci_size(l64, sz64, mask64);
 if (!sz64) {
  pci_info(dev, FW_BUG "%s: invalid; can't size\n", res_name);
  goto fail;
 }

 if (res->flags & IORESOURCE_MEM_64) {
  if ((sizeof(pci_bus_addr_t) < 8 || sizeof(resource_size_t) < 8)
      && sz64 > 0x100000000ULL) {
   res->flags |= IORESOURCE_UNSET | IORESOURCE_DISABLED;
   res->start = 0;
   res->end = 0;
   pci_err(dev, "%s: can't handle BAR larger than 4GB (size %#010llx)\n",
    res_name, (unsigned long long)sz64);
   goto out;
  }

  if ((sizeof(pci_bus_addr_t) < 8) && l) {
   /* Above 32-bit boundary; try to reallocate */
   res->flags |= IORESOURCE_UNSET;
   res->start = 0;
   res->end = sz64 - 1;
   pci_info(dev, "%s: can't handle BAR above 4GB (bus address %#010llx)\n",
     res_name, (unsigned long long)l64);
   goto out;
  }
 }

 region.start = l64;
 region.end = l64 + sz64 - 1;

 pcibios_bus_to_resource(dev->bus, res, ®ion);
 pcibios_resource_to_bus(dev->bus, &inverted_region, res);

 /*
 * If "A" is a BAR value (a bus address), "bus_to_resource(A)" is
 * the corresponding resource address (the physical address used by
 * the CPU.  Converting that resource address back to a bus address
 * should yield the original BAR value:
 *
 *     resource_to_bus(bus_to_resource(A)) == A
 *
 * If it doesn't, CPU accesses to "bus_to_resource(A)" will not
 * be claimed by the device.
 */

 if (inverted_region.start != region.start) {
  res->flags |= IORESOURCE_UNSET;
  res->start = 0;
  res->end = region.end - region.start;
  pci_info(dev, "%s: initial BAR value %#010llx invalid\n",
    res_name, (unsigned long long)region.start);
 }

 goto out;


fail:
 res->flags = 0;
out:
 if (res->flags)
  pci_info(dev, "%s %pR\n", res_name, res);

 return (res->flags & IORESOURCE_MEM_64) ? 1 : 0;
}

static __always_inline void pci_read_bases(struct pci_dev *dev,
        unsigned int howmany, int rom)
{
 u32 rombar, stdbars[PCI_STD_NUM_BARS];
 unsigned int pos, reg;
 u16 orig_cmd;

 BUILD_BUG_ON(statically_true(howmany > PCI_STD_NUM_BARS));

 if (dev->non_compliant_bars)
  return;

 /* Per PCIe r4.0, sec 9.3.4.1.11, the VF BARs are all RO Zero */
 if (dev->is_virtfn)
  return;

 /* No printks while decoding is disabled! */
 if (!dev->mmio_always_on) {
  pci_read_config_word(dev, PCI_COMMAND, &orig_cmd);
  if (orig_cmd & PCI_COMMAND_DECODE_ENABLE) {
   pci_write_config_word(dev, PCI_COMMAND,
    orig_cmd & ~PCI_COMMAND_DECODE_ENABLE);
  }
 }

 __pci_size_stdbars(dev, howmany, PCI_BASE_ADDRESS_0, stdbars);
 if (rom)
  __pci_size_rom(dev, rom, &rombar);

 if (!dev->mmio_always_on &&
     (orig_cmd & PCI_COMMAND_DECODE_ENABLE))
  pci_write_config_word(dev, PCI_COMMAND, orig_cmd);

 for (pos = 0; pos < howmany; pos++) {
  struct resource *res = &dev->resource[pos];
  reg = PCI_BASE_ADDRESS_0 + (pos << 2);
  pos += __pci_read_base(dev, pci_bar_unknown,
           res, reg, &stdbars[pos]);
 }

 if (rom) {
  struct resource *res = &dev->resource[PCI_ROM_RESOURCE];
  dev->rom_base_reg = rom;
  res->flags = IORESOURCE_MEM | IORESOURCE_PREFETCH |
    IORESOURCE_READONLY | IORESOURCE_SIZEALIGN;
  __pci_read_base(dev, pci_bar_mem32, res, rom, &rombar);
 }
}

static void pci_read_bridge_io(struct pci_dev *dev, struct resource *res,
          bool log)
{
 u8 io_base_lo, io_limit_lo;
 unsigned long io_mask, io_granularity, base, limit;
 struct pci_bus_region region;

 io_mask = PCI_IO_RANGE_MASK;
 io_granularity = 0x1000;
 if (dev->io_window_1k) {
  /* Support 1K I/O space granularity */
  io_mask = PCI_IO_1K_RANGE_MASK;
  io_granularity = 0x400;
 }

 pci_read_config_byte(dev, PCI_IO_BASE, &io_base_lo);
 pci_read_config_byte(dev, PCI_IO_LIMIT, &io_limit_lo);
 base = (io_base_lo & io_mask) << 8;
 limit = (io_limit_lo & io_mask) << 8;

 if ((io_base_lo & PCI_IO_RANGE_TYPE_MASK) == PCI_IO_RANGE_TYPE_32) {
  u16 io_base_hi, io_limit_hi;

  pci_read_config_word(dev, PCI_IO_BASE_UPPER16, &io_base_hi);
  pci_read_config_word(dev, PCI_IO_LIMIT_UPPER16, &io_limit_hi);
  base |= ((unsigned long) io_base_hi << 16);
  limit |= ((unsigned long) io_limit_hi << 16);
 }

 if (base <= limit) {
  res->flags = (io_base_lo & PCI_IO_RANGE_TYPE_MASK) | IORESOURCE_IO;
  region.start = base;
  region.end = limit + io_granularity - 1;
  pcibios_bus_to_resource(dev->bus, res, ®ion);
  if (log)
   pci_info(dev, " bridge window %pR\n", res);
 }
}

static void pci_read_bridge_mmio(struct pci_dev *dev, struct resource *res,
     bool log)
{
 u16 mem_base_lo, mem_limit_lo;
 unsigned long base, limit;
 struct pci_bus_region region;

 pci_read_config_word(dev, PCI_MEMORY_BASE, &mem_base_lo);
 pci_read_config_word(dev, PCI_MEMORY_LIMIT, &mem_limit_lo);
 base = ((unsigned long) mem_base_lo & PCI_MEMORY_RANGE_MASK) << 16;
 limit = ((unsigned long) mem_limit_lo & PCI_MEMORY_RANGE_MASK) << 16;
 if (base <= limit) {
  res->flags = (mem_base_lo & PCI_MEMORY_RANGE_TYPE_MASK) | IORESOURCE_MEM;
  region.start = base;
  region.end = limit + 0xfffff;
  pcibios_bus_to_resource(dev->bus, res, ®ion);
  if (log)
   pci_info(dev, " bridge window %pR\n", res);
 }
}

static void pci_read_bridge_mmio_pref(struct pci_dev *dev, struct resource *res,
          bool log)
{
 u16 mem_base_lo, mem_limit_lo;
 u64 base64, limit64;
 pci_bus_addr_t base, limit;
 struct pci_bus_region region;

 pci_read_config_word(dev, PCI_PREF_MEMORY_BASE, &mem_base_lo);
 pci_read_config_word(dev, PCI_PREF_MEMORY_LIMIT, &mem_limit_lo);
 base64 = (mem_base_lo & PCI_PREF_RANGE_MASK) << 16;
 limit64 = (mem_limit_lo & PCI_PREF_RANGE_MASK) << 16;

 if ((mem_base_lo & PCI_PREF_RANGE_TYPE_MASK) == PCI_PREF_RANGE_TYPE_64) {
  u32 mem_base_hi, mem_limit_hi;

  pci_read_config_dword(dev, PCI_PREF_BASE_UPPER32, &mem_base_hi);
  pci_read_config_dword(dev, PCI_PREF_LIMIT_UPPER32, &mem_limit_hi);

  /*
 * Some bridges set the base > limit by default, and some
 * (broken) BIOSes do not initialize them.  If we find
 * this, just assume they are not being used.
 */

  if (mem_base_hi <= mem_limit_hi) {
   base64 |= (u64) mem_base_hi << 32;
   limit64 |= (u64) mem_limit_hi << 32;
  }
 }

 base = (pci_bus_addr_t) base64;
 limit = (pci_bus_addr_t) limit64;

 if (base != base64) {
  pci_err(dev, "can't handle bridge window above 4GB (bus address %#010llx)\n",
   (unsigned long long) base64);
  return;
 }

 if (base <= limit) {
  res->flags = (mem_base_lo & PCI_PREF_RANGE_TYPE_MASK) |
      IORESOURCE_MEM | IORESOURCE_PREFETCH;
  if (res->flags & PCI_PREF_RANGE_TYPE_64)
   res->flags |= IORESOURCE_MEM_64;
  region.start = base;
  region.end = limit + 0xfffff;
  pcibios_bus_to_resource(dev->bus, res, ®ion);
  if (log)
   pci_info(dev, " bridge window %pR\n", res);
 }
}

static void pci_read_bridge_windows(struct pci_dev *bridge)
{
 u32 buses;
 u16 io;
 u32 pmem, tmp;
 struct resource res;

 pci_read_config_dword(bridge, PCI_PRIMARY_BUS, &buses);
 res.flags = IORESOURCE_BUS;
 res.start = (buses >> 8) & 0xff;
 res.end = (buses >> 16) & 0xff;
 pci_info(bridge, "PCI bridge to %pR%s\n", &res,
   bridge->transparent ? " (subtractive decode)" : "");

 pci_read_config_word(bridge, PCI_IO_BASE, &io);
 if (!io) {
  pci_write_config_word(bridge, PCI_IO_BASE, 0xe0f0);
  pci_read_config_word(bridge, PCI_IO_BASE, &io);
  pci_write_config_word(bridge, PCI_IO_BASE, 0x0);
 }
 if (io) {
  bridge->io_window = 1;
  pci_read_bridge_io(bridge, &res, true);
 }

 pci_read_bridge_mmio(bridge, &res, true);

 /*
 * DECchip 21050 pass 2 errata: the bridge may miss an address
 * disconnect boundary by one PCI data phase.  Workaround: do not
 * use prefetching on this device.
 */

 if (bridge->vendor == PCI_VENDOR_ID_DEC && bridge->device == 0x0001)
  return;

 pci_read_config_dword(bridge, PCI_PREF_MEMORY_BASE, &pmem);
 if (!pmem) {
  pci_write_config_dword(bridge, PCI_PREF_MEMORY_BASE,
            0xffe0fff0);
  pci_read_config_dword(bridge, PCI_PREF_MEMORY_BASE, &pmem);
  pci_write_config_dword(bridge, PCI_PREF_MEMORY_BASE, 0x0);
 }
 if (!pmem)
  return;

 bridge->pref_window = 1;

 if ((pmem & PCI_PREF_RANGE_TYPE_MASK) == PCI_PREF_RANGE_TYPE_64) {

  /*
 * Bridge claims to have a 64-bit prefetchable memory
 * window; verify that the upper bits are actually
 * writable.
 */

  pci_read_config_dword(bridge, PCI_PREF_BASE_UPPER32, &pmem);
  pci_write_config_dword(bridge, PCI_PREF_BASE_UPPER32,
           0xffffffff);
  pci_read_config_dword(bridge, PCI_PREF_BASE_UPPER32, &tmp);
  pci_write_config_dword(bridge, PCI_PREF_BASE_UPPER32, pmem);
  if (tmp)
   bridge->pref_64_window = 1;
 }

 pci_read_bridge_mmio_pref(bridge, &res, true);
}

void pci_read_bridge_bases(struct pci_bus *child)
{
 struct pci_dev *dev = child->self;
 struct resource *res;
 int i;

 if (pci_is_root_bus(child)) /* It's a host bus, nothing to read */
  return;

 pci_info(dev, "PCI bridge to %pR%s\n",
   &child->busn_res,
   dev->transparent ? " (subtractive decode)" : "");

 pci_bus_remove_resources(child);
 for (i = 0; i < PCI_BRIDGE_RESOURCE_NUM; i++)
  child->resource[i] = &dev->resource[PCI_BRIDGE_RESOURCES+i];

 pci_read_bridge_io(child->self, child->resource[0], false);
 pci_read_bridge_mmio(child->self, child->resource[1], false);
 pci_read_bridge_mmio_pref(child->self, child->resource[2], false);

 if (!dev->transparent)
  return;

 pci_bus_for_each_resource(child->parent, res) {
  if (!res || !res->flags)
   continue;

  pci_bus_add_resource(child, res);
  pci_info(dev, " bridge window %pR (subtractive decode)\n", res);
 }
}

static struct pci_bus *pci_alloc_bus(struct pci_bus *parent)
{
 struct pci_bus *b;

 b = kzalloc(sizeof(*b), GFP_KERNEL);
 if (!b)
  return NULL;

 INIT_LIST_HEAD(&b->node);
 INIT_LIST_HEAD(&b->children);
 INIT_LIST_HEAD(&b->devices);
 INIT_LIST_HEAD(&b->slots);
 INIT_LIST_HEAD(&b->resources);
 b->max_bus_speed = PCI_SPEED_UNKNOWN;
 b->cur_bus_speed = PCI_SPEED_UNKNOWN;
#ifdef CONFIG_PCI_DOMAINS_GENERIC
 if (parent)
  b->domain_nr = parent->domain_nr;
#endif
 return b;
}

static void pci_release_host_bridge_dev(struct device *dev)
{
 struct pci_host_bridge *bridge = to_pci_host_bridge(dev);

 if (bridge->release_fn)
  bridge->release_fn(bridge);

 pci_free_resource_list(&bridge->windows);
 pci_free_resource_list(&bridge->dma_ranges);
 kfree(bridge);
}

static void pci_init_host_bridge(struct pci_host_bridge *bridge)
{
 INIT_LIST_HEAD(&bridge->windows);
 INIT_LIST_HEAD(&bridge->dma_ranges);

 /*
 * We assume we can manage these PCIe features.  Some systems may
 * reserve these for use by the platform itself, e.g., an ACPI BIOS
 * may implement its own AER handling and use _OSC to prevent the
 * OS from interfering.
 */

 bridge->native_aer = 1;
 bridge->native_pcie_hotplug = 1;
 bridge->native_shpc_hotplug = 1;
 bridge->native_pme = 1;
 bridge->native_ltr = 1;
 bridge->native_dpc = 1;
 bridge->domain_nr = PCI_DOMAIN_NR_NOT_SET;
 bridge->native_cxl_error = 1;

 device_initialize(&bridge->dev);
}

struct pci_host_bridge *pci_alloc_host_bridge(size_t priv)
{
 struct pci_host_bridge *bridge;

 bridge = kzalloc(sizeof(*bridge) + priv, GFP_KERNEL);
 if (!bridge)
  return NULL;

 pci_init_host_bridge(bridge);
 bridge->dev.release = pci_release_host_bridge_dev;

 return bridge;
}
EXPORT_SYMBOL(pci_alloc_host_bridge);

static void devm_pci_alloc_host_bridge_release(void *data)
{
 pci_free_host_bridge(data);
}

struct pci_host_bridge *devm_pci_alloc_host_bridge(struct device *dev,
         size_t priv)
{
 int ret;
 struct pci_host_bridge *bridge;

 bridge = pci_alloc_host_bridge(priv);
 if (!bridge)
  return NULL;

 bridge->dev.parent = dev;

 ret = devm_add_action_or_reset(dev, devm_pci_alloc_host_bridge_release,
           bridge);
 if (ret)
  return NULL;

 ret = devm_of_pci_bridge_init(dev, bridge);
 if (ret)
  return NULL;

 return bridge;
}
EXPORT_SYMBOL(devm_pci_alloc_host_bridge);

void pci_free_host_bridge(struct pci_host_bridge *bridge)
{
 put_device(&bridge->dev);
}
EXPORT_SYMBOL(pci_free_host_bridge);

/* Indexed by PCI_X_SSTATUS_FREQ (secondary bus mode and frequency) */
static const unsigned char pcix_bus_speed[] = {
 PCI_SPEED_UNKNOWN,  /* 0 */
 PCI_SPEED_66MHz_PCIX,  /* 1 */
 PCI_SPEED_100MHz_PCIX,  /* 2 */
 PCI_SPEED_133MHz_PCIX,  /* 3 */
 PCI_SPEED_UNKNOWN,  /* 4 */
 PCI_SPEED_66MHz_PCIX_ECC, /* 5 */
 PCI_SPEED_100MHz_PCIX_ECC, /* 6 */
 PCI_SPEED_133MHz_PCIX_ECC, /* 7 */
 PCI_SPEED_UNKNOWN,  /* 8 */
 PCI_SPEED_66MHz_PCIX_266, /* 9 */
 PCI_SPEED_100MHz_PCIX_266, /* A */
 PCI_SPEED_133MHz_PCIX_266, /* B */
 PCI_SPEED_UNKNOWN,  /* C */
 PCI_SPEED_66MHz_PCIX_533, /* D */
 PCI_SPEED_100MHz_PCIX_533, /* E */
 PCI_SPEED_133MHz_PCIX_533 /* F */
};

/* Indexed by PCI_EXP_LNKCAP_SLS, PCI_EXP_LNKSTA_CLS */
const unsigned char pcie_link_speed[] = {
 PCI_SPEED_UNKNOWN,  /* 0 */
 PCIE_SPEED_2_5GT,  /* 1 */
 PCIE_SPEED_5_0GT,  /* 2 */
 PCIE_SPEED_8_0GT,  /* 3 */
 PCIE_SPEED_16_0GT,  /* 4 */
 PCIE_SPEED_32_0GT,  /* 5 */
 PCIE_SPEED_64_0GT,  /* 6 */
 PCI_SPEED_UNKNOWN,  /* 7 */
 PCI_SPEED_UNKNOWN,  /* 8 */
 PCI_SPEED_UNKNOWN,  /* 9 */
 PCI_SPEED_UNKNOWN,  /* A */
 PCI_SPEED_UNKNOWN,  /* B */
 PCI_SPEED_UNKNOWN,  /* C */
 PCI_SPEED_UNKNOWN,  /* D */
 PCI_SPEED_UNKNOWN,  /* E */
 PCI_SPEED_UNKNOWN  /* F */
};
EXPORT_SYMBOL_GPL(pcie_link_speed);

const char *pci_speed_string(enum pci_bus_speed speed)
{
 /* Indexed by the pci_bus_speed enum */
 static const char *speed_strings[] = {
     "33 MHz PCI",  /* 0x00 */
     "66 MHz PCI",  /* 0x01 */
     "66 MHz PCI-X",  /* 0x02 */
     "100 MHz PCI-X",  /* 0x03 */
     "133 MHz PCI-X",  /* 0x04 */
     NULL,   /* 0x05 */
     NULL,   /* 0x06 */
     NULL,   /* 0x07 */
     NULL,   /* 0x08 */
     "66 MHz PCI-X 266",  /* 0x09 */
     "100 MHz PCI-X 266"/* 0x0a */
     "133 MHz PCI-X 266"/* 0x0b */
     "Unknown AGP",  /* 0x0c */
     "1x AGP",   /* 0x0d */
     "2x AGP",   /* 0x0e */
     "4x AGP",   /* 0x0f */
     "8x AGP",   /* 0x10 */
     "66 MHz PCI-X 533",  /* 0x11 */
     "100 MHz PCI-X 533"/* 0x12 */
     "133 MHz PCI-X 533"/* 0x13 */
     "2.5 GT/s PCIe",  /* 0x14 */
     "5.0 GT/s PCIe",  /* 0x15 */
     "8.0 GT/s PCIe",  /* 0x16 */
     "16.0 GT/s PCIe",  /* 0x17 */
     "32.0 GT/s PCIe",  /* 0x18 */
     "64.0 GT/s PCIe",  /* 0x19 */
 };

 if (speed < ARRAY_SIZE(speed_strings))
  return speed_strings[speed];
 return "Unknown";
}
EXPORT_SYMBOL_GPL(pci_speed_string);

void pcie_update_link_speed(struct pci_bus *bus)
{
 struct pci_dev *bridge = bus->self;
 u16 linksta, linksta2;

 pcie_capability_read_word(bridge, PCI_EXP_LNKSTA, &linksta);
 pcie_capability_read_word(bridge, PCI_EXP_LNKSTA2, &linksta2);
 __pcie_update_link_speed(bus, linksta, linksta2);
}
EXPORT_SYMBOL_GPL(pcie_update_link_speed);

static unsigned char agp_speeds[] = {
 AGP_UNKNOWN,
 AGP_1X,
 AGP_2X,
 AGP_4X,
 AGP_8X
};

static enum pci_bus_speed agp_speed(int agp3, int agpstat)
{
 int index = 0;

 if (agpstat & 4)
  index = 3;
 else if (agpstat & 2)
  index = 2;
 else if (agpstat & 1)
  index = 1;
 else
  goto out;

 if (agp3) {
  index += 2;
  if (index == 5)
   index = 0;
 }

 out:
 return agp_speeds[index];
}

static void pci_set_bus_speed(struct pci_bus *bus)
{
 struct pci_dev *bridge = bus->self;
 int pos;

 pos = pci_find_capability(bridge, PCI_CAP_ID_AGP);
 if (!pos)
  pos = pci_find_capability(bridge, PCI_CAP_ID_AGP3);
 if (pos) {
  u32 agpstat, agpcmd;

  pci_read_config_dword(bridge, pos + PCI_AGP_STATUS, &agpstat);
  bus->max_bus_speed = agp_speed(agpstat & 8, agpstat & 7);

  pci_read_config_dword(bridge, pos + PCI_AGP_COMMAND, &agpcmd);
  bus->cur_bus_speed = agp_speed(agpstat & 8, agpcmd & 7);
 }

 pos = pci_find_capability(bridge, PCI_CAP_ID_PCIX);
 if (pos) {
  u16 status;
  enum pci_bus_speed max;

  pci_read_config_word(bridge, pos + PCI_X_BRIDGE_SSTATUS,
         &status);

  if (status & PCI_X_SSTATUS_533MHZ) {
   max = PCI_SPEED_133MHz_PCIX_533;
  } else if (status & PCI_X_SSTATUS_266MHZ) {
   max = PCI_SPEED_133MHz_PCIX_266;
  } else if (status & PCI_X_SSTATUS_133MHZ) {
   if ((status & PCI_X_SSTATUS_VERS) == PCI_X_SSTATUS_V2)
    max = PCI_SPEED_133MHz_PCIX_ECC;
   else
    max = PCI_SPEED_133MHz_PCIX;
  } else {
   max = PCI_SPEED_66MHz_PCIX;
  }

  bus->max_bus_speed = max;
  bus->cur_bus_speed =
   pcix_bus_speed[FIELD_GET(PCI_X_SSTATUS_FREQ, status)];

  return;
 }

 if (pci_is_pcie(bridge)) {
  u32 linkcap;

  pcie_capability_read_dword(bridge, PCI_EXP_LNKCAP, &linkcap);
  bus->max_bus_speed = pcie_link_speed[linkcap & PCI_EXP_LNKCAP_SLS];

  pcie_update_link_speed(bus);
 }
}

static struct irq_domain *pci_host_bridge_msi_domain(struct pci_bus *bus)
{
 struct irq_domain *d;

 /* If the host bridge driver sets a MSI domain of the bridge, use it */
 d = dev_get_msi_domain(bus->bridge);

 /*
 * Any firmware interface that can resolve the msi_domain
 * should be called from here.
 */

 if (!d)
  d = pci_host_bridge_of_msi_domain(bus);
 if (!d)
  d = pci_host_bridge_acpi_msi_domain(bus);

 /*
 * If no IRQ domain was found via the OF tree, try looking it up
 * directly through the fwnode_handle.
 */

 if (!d) {
  struct fwnode_handle *fwnode = pci_root_bus_fwnode(bus);

  if (fwnode)
   d = irq_find_matching_fwnode(fwnode,
           DOMAIN_BUS_PCI_MSI);
 }

 return d;
}

static void pci_set_bus_msi_domain(struct pci_bus *bus)
{
 struct irq_domain *d;
 struct pci_bus *b;

 /*
 * The bus can be a root bus, a subordinate bus, or a virtual bus
 * created by an SR-IOV device.  Walk up to the first bridge device
 * found or derive the domain from the host bridge.
 */

 for (b = bus, d = NULL; !d && !pci_is_root_bus(b); b = b->parent) {
  if (b->self)
   d = dev_get_msi_domain(&b->self->dev);
 }

 if (!d)
  d = pci_host_bridge_msi_domain(b);

 dev_set_msi_domain(&bus->dev, d);
}

static bool pci_preserve_config(struct pci_host_bridge *host_bridge)
{
 if (pci_acpi_preserve_config(host_bridge))
  return true;

 if (host_bridge->dev.parent && host_bridge->dev.parent->of_node)
  return of_pci_preserve_config(host_bridge->dev.parent->of_node);

 return false;
}

static int pci_register_host_bridge(struct pci_host_bridge *bridge)
{
 struct device *parent = bridge->dev.parent;
 struct resource_entry *window, *next, *n;
 struct pci_bus *bus, *b;
 resource_size_t offset, next_offset;
 LIST_HEAD(resources);
 struct resource *res, *next_res;
 bool bus_registered = false;
 char addr[64], *fmt;
 const char *name;
 int err;

 bus = pci_alloc_bus(NULL);
 if (!bus)
  return -ENOMEM;

 bridge->bus = bus;

 bus->sysdata = bridge->sysdata;
 bus->ops = bridge->ops;
 bus->number = bus->busn_res.start = bridge->busnr;
#ifdef CONFIG_PCI_DOMAINS_GENERIC
 if (bridge->domain_nr == PCI_DOMAIN_NR_NOT_SET)
  bus->domain_nr = pci_bus_find_domain_nr(bus, parent);
 else
  bus->domain_nr = bridge->domain_nr;
 if (bus->domain_nr < 0) {
  err = bus->domain_nr;
  goto free;
 }
#endif

 b = pci_find_bus(pci_domain_nr(bus), bridge->busnr);
 if (b) {
  /* Ignore it if we already got here via a different bridge */
  dev_dbg(&b->dev, "bus already known\n");
  err = -EEXIST;
  goto free;
 }

 dev_set_name(&bridge->dev, "pci%04x:%02x", pci_domain_nr(bus),
       bridge->busnr);

 err = pcibios_root_bridge_prepare(bridge);
 if (err)
  goto free;

 /* Temporarily move resources off the list */
 list_splice_init(&bridge->windows, &resources);
 err = device_add(&bridge->dev);
 if (err)
  goto free;

 bus->bridge = get_device(&bridge->dev);
 device_enable_async_suspend(bus->bridge);
 pci_set_bus_of_node(bus);
 pci_set_bus_msi_domain(bus);
 if (bridge->msi_domain && !dev_get_msi_domain(&bus->dev) &&
     !pci_host_of_has_msi_map(parent))
  bus->bus_flags |= PCI_BUS_FLAGS_NO_MSI;

 if (!parent)
  set_dev_node(bus->bridge, pcibus_to_node(bus));

 bus->dev.class = &pcibus_class;
 bus->dev.parent = bus->bridge;

 dev_set_name(&bus->dev, "%04x:%02x", pci_domain_nr(bus), bus->number);
 name = dev_name(&bus->dev);

 err = device_register(&bus->dev);
 bus_registered = true;
 if (err)
  goto unregister;

 pcibios_add_bus(bus);

 if (bus->ops->add_bus) {
  err = bus->ops->add_bus(bus);
  if (WARN_ON(err < 0))
   dev_err(&bus->dev, "failed to add bus: %d\n", err);
 }

 /* Create legacy_io and legacy_mem files for this bus */
 pci_create_legacy_files(bus);

 if (parent)
  dev_info(parent, "PCI host bridge to bus %s\n", name);
 else
  pr_info("PCI host bridge to bus %s\n", name);

 if (nr_node_ids > 1 && pcibus_to_node(bus) == NUMA_NO_NODE)
  dev_warn(&bus->dev, "Unknown NUMA node; performance will be reduced\n");

 /* Check if the boot configuration by FW needs to be preserved */
 bridge->preserve_config = pci_preserve_config(bridge);

 /* Coalesce contiguous windows */
 resource_list_for_each_entry_safe(window, n, &resources) {
  if (list_is_last(&window->node, &resources))
   break;

  next = list_next_entry(window, node);
  offset = window->offset;
  res = window->res;
  next_offset = next->offset;
  next_res = next->res;

  if (res->flags != next_res->flags || offset != next_offset)
   continue;

  if (res->end + 1 == next_res->start) {
   next_res->start = res->start;
   res->flags = res->start = res->end = 0;
  }
 }

 /* Add initial resources to the bus */
 resource_list_for_each_entry_safe(window, n, &resources) {
  offset = window->offset;
  res = window->res;
  if (!res->flags && !res->start && !res->end) {
   release_resource(res);
   resource_list_destroy_entry(window);
   continue;
  }

  list_move_tail(&window->node, &bridge->windows);

  if (res->flags & IORESOURCE_BUS)
   pci_bus_insert_busn_res(bus, bus->number, res->end);
  else
   pci_bus_add_resource(bus, res);

  if (offset) {
   if (resource_type(res) == IORESOURCE_IO)
    fmt = " (bus address [%#06llx-%#06llx])";
   else
    fmt = " (bus address [%#010llx-%#010llx])";

   snprintf(addr, sizeof(addr), fmt,
     (unsigned long long)(res->start - offset),
     (unsigned long long)(res->end - offset));
  } else
   addr[0] = '\0';

  dev_info(&bus->dev, "root bus resource %pR%s\n", res, addr);
 }

 of_pci_make_host_bridge_node(bridge);

 down_write(&pci_bus_sem);
 list_add_tail(&bus->node, &pci_root_buses);
 up_write(&pci_bus_sem);

 return 0;

unregister:
 put_device(&bridge->dev);
 device_del(&bridge->dev);
free:
#ifdef CONFIG_PCI_DOMAINS_GENERIC
 pci_bus_release_domain_nr(parent, bus->domain_nr);
#endif
 if (bus_registered)
  put_device(&bus->dev);
 else
  kfree(bus);

 return err;
}

static bool pci_bridge_child_ext_cfg_accessible(struct pci_dev *bridge)
{
 int pos;
 u32 status;

 /*
 * If extended config space isn't accessible on a bridge's primary
 * bus, we certainly can't access it on the secondary bus.
 */

 if (bridge->bus->bus_flags & PCI_BUS_FLAGS_NO_EXTCFG)
  return false;

 /*
 * PCIe Root Ports and switch ports are PCIe on both sides, so if
 * extended config space is accessible on the primary, it's also
 * accessible on the secondary.
 */

 if (pci_is_pcie(bridge) &&
     (pci_pcie_type(bridge) == PCI_EXP_TYPE_ROOT_PORT ||
      pci_pcie_type(bridge) == PCI_EXP_TYPE_UPSTREAM ||
      pci_pcie_type(bridge) == PCI_EXP_TYPE_DOWNSTREAM))
  return true;

 /*
 * For the other bridge types:
 *   - PCI-to-PCI bridges
 *   - PCIe-to-PCI/PCI-X forward bridges
 *   - PCI/PCI-X-to-PCIe reverse bridges
 * extended config space on the secondary side is only accessible
 * if the bridge supports PCI-X Mode 2.
 */

 pos = pci_find_capability(bridge, PCI_CAP_ID_PCIX);
 if (!pos)
  return false;

 pci_read_config_dword(bridge, pos + PCI_X_STATUS, &status);
 return status & (PCI_X_STATUS_266MHZ | PCI_X_STATUS_533MHZ);
}

static struct pci_bus *pci_alloc_child_bus(struct pci_bus *parent,
        struct pci_dev *bridge, int busnr)
{
 struct pci_bus *child;
 struct pci_host_bridge *host;
 int i;
 int ret;

 /* Allocate a new bus and inherit stuff from the parent */
 child = pci_alloc_bus(parent);
 if (!child)
  return NULL;

 child->parent = parent;
 child->sysdata = parent->sysdata;
 child->bus_flags = parent->bus_flags;

 host = pci_find_host_bridge(parent);
 if (host->child_ops)
  child->ops = host->child_ops;
 else
  child->ops = parent->ops;

 /*
 * Initialize some portions of the bus device, but don't register
 * it now as the parent is not properly set up yet.
 */

 child->dev.class = &pcibus_class;
 dev_set_name(&child->dev, "%04x:%02x", pci_domain_nr(child), busnr);

 /* Set up the primary, secondary and subordinate bus numbers */
 child->number = child->busn_res.start = busnr;
 child->primary = parent->busn_res.start;
 child->busn_res.end = 0xff;

 if (!bridge) {
  child->dev.parent = parent->bridge;
  goto add_dev;
 }

 child->self = bridge;
 child->bridge = get_device(&bridge->dev);
 child->dev.parent = child->bridge;
 pci_set_bus_of_node(child);
 pci_set_bus_speed(child);

 /*
 * Check whether extended config space is accessible on the child
 * bus.  Note that we currently assume it is always accessible on
 * the root bus.
 */

 if (!pci_bridge_child_ext_cfg_accessible(bridge)) {
  child->bus_flags |= PCI_BUS_FLAGS_NO_EXTCFG;
  pci_info(child, "extended config space not accessible\n");
 }

 /* Set up default resource pointers and names */
 for (i = 0; i < PCI_BRIDGE_RESOURCE_NUM; i++) {
  child->resource[i] = &bridge->resource[PCI_BRIDGE_RESOURCES+i];
  child->resource[i]->name = child->name;
 }
 bridge->subordinate = child;

add_dev:
 pci_set_bus_msi_domain(child);
 ret = device_register(&child->dev);
 if (WARN_ON(ret < 0)) {
  put_device(&child->dev);
  return NULL;
 }

 pcibios_add_bus(child);

 if (child->ops->add_bus) {
  ret = child->ops->add_bus(child);
  if (WARN_ON(ret < 0))
   dev_err(&child->dev, "failed to add bus: %d\n", ret);
 }

 /* Create legacy_io and legacy_mem files for this bus */
 pci_create_legacy_files(child);

 return child;
}

struct pci_bus *pci_add_new_bus(struct pci_bus *parent, struct pci_dev *dev,
    int busnr)
{
 struct pci_bus *child;

 child = pci_alloc_child_bus(parent, dev, busnr);
 if (child) {
  down_write(&pci_bus_sem);
  list_add_tail(&child->node, &parent->children);
  up_write(&pci_bus_sem);
 }
 return child;
}
EXPORT_SYMBOL(pci_add_new_bus);

static void pci_enable_rrs_sv(struct pci_dev *pdev)
{
 u16 root_cap = 0;

 /* Enable Configuration RRS Software Visibility if supported */
 pcie_capability_read_word(pdev, PCI_EXP_RTCAP, &root_cap);
 if (root_cap & PCI_EXP_RTCAP_RRS_SV) {
  pcie_capability_set_word(pdev, PCI_EXP_RTCTL,
      PCI_EXP_RTCTL_RRS_SVE);
  pdev->config_rrs_sv = 1;
 }
}

static unsigned int pci_scan_child_bus_extend(struct pci_bus *bus,
           unsigned int available_buses);
/**
 * pci_ea_fixed_busnrs() - Read fixed Secondary and Subordinate bus
 * numbers from EA capability.
 * @dev: Bridge
 * @sec: updated with secondary bus number from EA
 * @sub: updated with subordinate bus number from EA
 *
 * If @dev is a bridge with EA capability that specifies valid secondary
 * and subordinate bus numbers, return true with the bus numbers in @sec
 * and @sub.  Otherwise return false.
 */

static bool pci_ea_fixed_busnrs(struct pci_dev *dev, u8 *sec, u8 *sub)
{
 int ea, offset;
 u32 dw;
 u8 ea_sec, ea_sub;

 if (dev->hdr_type != PCI_HEADER_TYPE_BRIDGE)
  return false;

 /* find PCI EA capability in list */
 ea = pci_find_capability(dev, PCI_CAP_ID_EA);
 if (!ea)
  return false;

 offset = ea + PCI_EA_FIRST_ENT;
 pci_read_config_dword(dev, offset, &dw);
 ea_sec = FIELD_GET(PCI_EA_SEC_BUS_MASK, dw);
 ea_sub = FIELD_GET(PCI_EA_SUB_BUS_MASK, dw);
 if (ea_sec  == 0 || ea_sub < ea_sec)
  return false;

 *sec = ea_sec;
 *sub = ea_sub;
 return true;
}

/*
 * pci_scan_bridge_extend() - Scan buses behind a bridge
 * @bus: Parent bus the bridge is on
 * @dev: Bridge itself
 * @max: Starting subordinate number of buses behind this bridge
 * @available_buses: Total number of buses available for this bridge and
 *      the devices below. After the minimal bus space has
 *      been allocated the remaining buses will be
 *      distributed equally between hotplug-capable bridges.
 * @pass: Either %0 (scan already configured bridges) or %1 (scan bridges
 *        that need to be reconfigured.
 *
 * If it's a bridge, configure it and scan the bus behind it.
 * For CardBus bridges, we don't scan behind as the devices will
 * be handled by the bridge driver itself.
 *
 * We need to process bridges in two passes -- first we scan those
 * already configured by the BIOS and after we are done with all of
 * them, we proceed to assigning numbers to the remaining buses in
 * order to avoid overlaps between old and new bus numbers.
 *
 * Return: New subordinate number covering all buses behind this bridge.
 */

static int pci_scan_bridge_extend(struct pci_bus *bus, struct pci_dev *dev,
      int max, unsigned int available_buses,
      int pass)
{
 struct pci_bus *child;
 int is_cardbus = (dev->hdr_type == PCI_HEADER_TYPE_CARDBUS);
 u32 buses, i, j = 0;
 u16 bctl;
 u8 primary, secondary, subordinate;
 int broken = 0;
 bool fixed_buses;
 u8 fixed_sec, fixed_sub;
 int next_busnr;

 /*
 * Make sure the bridge is powered on to be able to access config
 * space of devices below it.
 */

 pm_runtime_get_sync(&dev->dev);

 pci_read_config_dword(dev, PCI_PRIMARY_BUS, &buses);
 primary = buses & 0xFF;
 secondary = (buses >> 8) & 0xFF;
 subordinate = (buses >> 16) & 0xFF;

 pci_dbg(dev, "scanning [bus %02x-%02x] behind bridge, pass %d\n",
  secondary, subordinate, pass);

 if (!primary && (primary != bus->number) && secondary && subordinate) {
  pci_warn(dev, "Primary bus is hard wired to 0\n");
  primary = bus->number;
 }

 /* Check if setup is sensible at all */
 if (!pass &&
     (primary != bus->number || secondary <= bus->number ||
      secondary > subordinate)) {
  pci_info(dev, "bridge configuration invalid ([bus %02x-%02x]), reconfiguring\n",
    secondary, subordinate);
  broken = 1;
 }

 /*
 * Disable Master-Abort Mode during probing to avoid reporting of
 * bus errors in some architectures.
 */

 pci_read_config_word(dev, PCI_BRIDGE_CONTROL, &bctl);
 pci_write_config_word(dev, PCI_BRIDGE_CONTROL,
         bctl & ~PCI_BRIDGE_CTL_MASTER_ABORT);

 if ((secondary || subordinate) && !pcibios_assign_all_busses() &&
     !is_cardbus && !broken) {
  unsigned int cmax, buses;

  /*
 * Bus already configured by firmware, process it in the
 * first pass and just note the configuration.
 */

  if (pass)
   goto out;

  /*
 * The bus might already exist for two reasons: Either we
 * are rescanning the bus or the bus is reachable through
 * more than one bridge. The second case can happen with
 * the i450NX chipset.
 */

  child = pci_find_bus(pci_domain_nr(bus), secondary);
  if (!child) {
   child = pci_add_new_bus(bus, dev, secondary);
   if (!child)
    goto out;
   child->primary = primary;
   pci_bus_insert_busn_res(child, secondary, subordinate);
   child->bridge_ctl = bctl;
  }

  buses = subordinate - secondary;
  cmax = pci_scan_child_bus_extend(child, buses);
  if (cmax > subordinate)
   pci_warn(dev, "bridge has subordinate %02x but max busn %02x\n",
     subordinate, cmax);

  /* Subordinate should equal child->busn_res.end */
  if (subordinate > max)
   max = subordinate;
 } else {

  /*
 * We need to assign a number to this bus which we always
 * do in the second pass.
 */

  if (!pass) {
   if (pcibios_assign_all_busses() || broken || is_cardbus)

    /*
 * Temporarily disable forwarding of the
 * configuration cycles on all bridges in
 * this bus segment to avoid possible
 * conflicts in the second pass between two
 * bridges programmed with overlapping bus
 * ranges.
 */

    pci_write_config_dword(dev, PCI_PRIMARY_BUS,
             buses & ~0xffffff);
   goto out;
  }

  /* Clear errors */
  pci_write_config_word(dev, PCI_STATUS, 0xffff);

  /* Read bus numbers from EA Capability (if present) */
  fixed_buses = pci_ea_fixed_busnrs(dev, &fixed_sec, &fixed_sub);
  if (fixed_buses)
   next_busnr = fixed_sec;
  else
   next_busnr = max + 1;

  /*
 * Prevent assigning a bus number that already exists.
 * This can happen when a bridge is hot-plugged, so in this
 * case we only re-scan this bus.
 */

  child = pci_find_bus(pci_domain_nr(bus), next_busnr);
  if (!child) {
   child = pci_add_new_bus(bus, dev, next_busnr);
   if (!child)
    goto out;
   pci_bus_insert_busn_res(child, next_busnr,
      bus->busn_res.end);
  }
  max++;
  if (available_buses)
   available_buses--;

  buses = (buses & 0xff000000)
        | ((unsigned int)(child->primary)     <<  0)
        | ((unsigned int)(child->busn_res.start)   <<  8)
        | ((unsigned int)(child->busn_res.end) << 16);

  /*
 * yenta.c forces a secondary latency timer of 176.
 * Copy that behaviour here.
 */

  if (is_cardbus) {
   buses &= ~0xff000000;
   buses |= CARDBUS_LATENCY_TIMER << 24;
  }

  /* We need to blast all three values with a single write */
  pci_write_config_dword(dev, PCI_PRIMARY_BUS, buses);

  if (!is_cardbus) {
   child->bridge_ctl = bctl;
   max = pci_scan_child_bus_extend(child, available_buses);
  } else {

   /*
 * For CardBus bridges, we leave 4 bus numbers as
 * cards with a PCI-to-PCI bridge can be inserted
 * later.
 */

   for (i = 0; i < CARDBUS_RESERVE_BUSNR; i++) {
    struct pci_bus *parent = bus;
    if (pci_find_bus(pci_domain_nr(bus),
       max+i+1))
     break;
    while (parent->parent) {
     if ((!pcibios_assign_all_busses()) &&
         (parent->busn_res.end > max) &&
         (parent->busn_res.end <= max+i)) {
      j = 1;
     }
     parent = parent->parent;
    }
    if (j) {

     /*
 * Often, there are two CardBus
 * bridges -- try to leave one
 * valid bus number for each one.
 */

     i /= 2;
     break;
    }
   }
   max += i;
  }

  /*
 * Set subordinate bus number to its real value.
 * If fixed subordinate bus number exists from EA
 * capability then use it.
 */

  if (fixed_buses)
   max = fixed_sub;
  pci_bus_update_busn_res_end(child, max);
  pci_write_config_byte(dev, PCI_SUBORDINATE_BUS, max);
 }

 sprintf(child->name,
  (is_cardbus ? "PCI CardBus %04x:%02x" : "PCI Bus %04x:%02x"),
  pci_domain_nr(bus), child->number);

 /* Check that all devices are accessible */
 while (bus->parent) {
  if ((child->busn_res.end > bus->busn_res.end) ||
      (child->number > bus->busn_res.end) ||
      (child->number < bus->number) ||
      (child->busn_res.end < bus->number)) {
   dev_info(&dev->dev, "devices behind bridge are unusable because %pR cannot be assigned for them\n",
     &child->busn_res);
   break;
  }
  bus = bus->parent;
 }

out:
 /* Clear errors in the Secondary Status Register */
 pci_write_config_word(dev, PCI_SEC_STATUS, 0xffff);

 pci_write_config_word(dev, PCI_BRIDGE_CONTROL, bctl);

 pm_runtime_put(&dev->dev);

 return max;
}

/*
 * pci_scan_bridge() - Scan buses behind a bridge
 * @bus: Parent bus the bridge is on
 * @dev: Bridge itself
 * @max: Starting subordinate number of buses behind this bridge
 * @pass: Either %0 (scan already configured bridges) or %1 (scan bridges
 *        that need to be reconfigured.
 *
 * If it's a bridge, configure it and scan the bus behind it.
 * For CardBus bridges, we don't scan behind as the devices will
 * be handled by the bridge driver itself.
 *
 * We need to process bridges in two passes -- first we scan those
 * already configured by the BIOS and after we are done with all of
 * them, we proceed to assigning numbers to the remaining buses in
 * order to avoid overlaps between old and new bus numbers.
 *
 * Return: New subordinate number covering all buses behind this bridge.
 */

int pci_scan_bridge(struct pci_bus *bus, struct pci_dev *dev, int max, int pass)
{
 return pci_scan_bridge_extend(bus, dev, max, 0, pass);
}
EXPORT_SYMBOL(pci_scan_bridge);

/*
 * Read interrupt line and base address registers.
 * The architecture-dependent code can tweak these, of course.
 */

static void pci_read_irq(struct pci_dev *dev)
{
 unsigned char irq;

 /* VFs are not allowed to use INTx, so skip the config reads */
 if (dev->is_virtfn) {
  dev->pin = 0;
  dev->irq = 0;
  return;
 }

 pci_read_config_byte(dev, PCI_INTERRUPT_PIN, &irq);
 dev->pin = irq;
 if (irq)
  pci_read_config_byte(dev, PCI_INTERRUPT_LINE, &irq);
 dev->irq = irq;
}

void set_pcie_port_type(struct pci_dev *pdev)
{
 int pos;
 u16 reg16;
 u32 reg32;
 int type;
 struct pci_dev *parent;

 pos = pci_find_capability(pdev, PCI_CAP_ID_EXP);
 if (!pos)
  return;

 pdev->pcie_cap = pos;
 pci_read_config_word(pdev, pos + PCI_EXP_FLAGS, ®16);
 pdev->pcie_flags_reg = reg16;

 type = pci_pcie_type(pdev);
 if (type == PCI_EXP_TYPE_ROOT_PORT)
  pci_enable_rrs_sv(pdev);

 pci_read_config_dword(pdev, pos + PCI_EXP_DEVCAP, &pdev->devcap);
 pdev->pcie_mpss = FIELD_GET(PCI_EXP_DEVCAP_PAYLOAD, pdev->devcap);

 pcie_capability_read_dword(pdev, PCI_EXP_LNKCAP, ®32);
 if (reg32 & PCI_EXP_LNKCAP_DLLLARC)
  pdev->link_active_reporting = 1;

 parent = pci_upstream_bridge(pdev);
 if (!parent)
  return;

 /*
 * Some systems do not identify their upstream/downstream ports
 * correctly so detect impossible configurations here and correct
 * the port type accordingly.
 */

 if (type == PCI_EXP_TYPE_DOWNSTREAM) {
  /*
 * If pdev claims to be downstream port but the parent
 * device is also downstream port assume pdev is actually
 * upstream port.
 */

  if (pcie_downstream_port(parent)) {
   pci_info(pdev, "claims to be downstream port but is acting as upstream port, correcting type\n");
   pdev->pcie_flags_reg &= ~PCI_EXP_FLAGS_TYPE;
   pdev->pcie_flags_reg |= PCI_EXP_TYPE_UPSTREAM;
  }
 } else if (type == PCI_EXP_TYPE_UPSTREAM) {
  /*
 * If pdev claims to be upstream port but the parent
 * device is also upstream port assume pdev is actually
 * downstream port.
 */

  if (pci_pcie_type(parent) == PCI_EXP_TYPE_UPSTREAM) {
   pci_info(pdev, "claims to be upstream port but is acting as downstream port, correcting type\n");
   pdev->pcie_flags_reg &= ~PCI_EXP_FLAGS_TYPE;
   pdev->pcie_flags_reg |= PCI_EXP_TYPE_DOWNSTREAM;
  }
 }
}

void set_pcie_hotplug_bridge(struct pci_dev *pdev)
{
 u32 reg32;

 pcie_capability_read_dword(pdev, PCI_EXP_SLTCAP, ®32);
 if (reg32 & PCI_EXP_SLTCAP_HPC)
  pdev->is_hotplug_bridge = pdev->is_pciehp = 1;
}

static void set_pcie_thunderbolt(struct pci_dev *dev)
{
 u16 vsec;

 /* Is the device part of a Thunderbolt controller? */
 vsec = pci_find_vsec_capability(dev, PCI_VENDOR_ID_INTEL, PCI_VSEC_ID_INTEL_TBT);
 if (vsec)
  dev->is_thunderbolt = 1;
}

static void set_pcie_untrusted(struct pci_dev *dev)
{
 struct pci_dev *parent = pci_upstream_bridge(dev);

 if (!parent)
  return;
 /*
 * If the upstream bridge is untrusted we treat this device as
 * untrusted as well.
 */

 if (parent->untrusted) {
  dev->untrusted = true;
  return;
 }

 if (arch_pci_dev_is_removable(dev)) {
  pci_dbg(dev, "marking as untrusted\n");
  dev->untrusted = true;
 }
}

static void pci_set_removable(struct pci_dev *dev)
{
 struct pci_dev *parent = pci_upstream_bridge(dev);

 if (!parent)
  return;
 /*
 * We (only) consider everything tunneled below an external_facing
 * device to be removable by the user. We're mainly concerned with
 * consumer platforms with user accessible thunderbolt ports that are
 * vulnerable to DMA attacks, and we expect those ports to be marked by
 * the firmware as external_facing. Devices in traditional hotplug
 * slots can technically be removed, but the expectation is that unless
 * the port is marked with external_facing, such devices are less
 * accessible to user / may not be removed by end user, and thus not
 * exposed as "removable" to userspace.
 */

 if (dev_is_removable(&parent->dev)) {
  dev_set_removable(&dev->dev, DEVICE_REMOVABLE);
  return;
 }

 if (arch_pci_dev_is_removable(dev)) {
  pci_dbg(dev, "marking as removable\n");
  dev_set_removable(&dev->dev, DEVICE_REMOVABLE);
 }
}

/**
 * pci_ext_cfg_is_aliased - Is ext config space just an alias of std config?
 * @dev: PCI device
 *
 * PCI Express to PCI/PCI-X Bridge Specification, rev 1.0, 4.1.4 says that
 * when forwarding a type1 configuration request the bridge must check that
 * the extended register address field is zero.  The bridge is not permitted
 * to forward the transactions and must handle it as an Unsupported Request.
 * Some bridges do not follow this rule and simply drop the extended register
 * bits, resulting in the standard config space being aliased, every 256
 * bytes across the entire configuration space.  Test for this condition by
 * comparing the first dword of each potential alias to the vendor/device ID.
 * Known offenders:
 *   ASM1083/1085 PCIe-to-PCI Reversible Bridge (1b21:1080, rev 01 & 03)
 *   AMD/ATI SBx00 PCI to PCI Bridge (1002:4384, rev 40)
 */

static bool pci_ext_cfg_is_aliased(struct pci_dev *dev)
{
#ifdef CONFIG_PCI_QUIRKS
 int pos, ret;
 u32 header, tmp;

 pci_read_config_dword(dev, PCI_VENDOR_ID, &header);

 for (pos = PCI_CFG_SPACE_SIZE;
      pos < PCI_CFG_SPACE_EXP_SIZE; pos += PCI_CFG_SPACE_SIZE) {
  ret = pci_read_config_dword(dev, pos, &tmp);
  if ((ret != PCIBIOS_SUCCESSFUL) || (header != tmp))
   return false;
 }

 return true;
#else
 return false;
#endif
}

/**
 * pci_cfg_space_size_ext - Get the configuration space size of the PCI device
 * @dev: PCI device
 *
 * Regular PCI devices have 256 bytes, but PCI-X 2 and PCI Express devices
 * have 4096 bytes.  Even if the device is capable, that doesn't mean we can
 * access it.  Maybe we don't have a way to generate extended config space
 * accesses, or the device is behind a reverse Express bridge.  So we try
 * reading the dword at 0x100 which must either be 0 or a valid extended
 * capability header.
 */

static int pci_cfg_space_size_ext(struct pci_dev *dev)
{
 u32 status;
 int pos = PCI_CFG_SPACE_SIZE;

 if (pci_read_config_dword(dev, pos, &status) != PCIBIOS_SUCCESSFUL)
  return PCI_CFG_SPACE_SIZE;
 if (PCI_POSSIBLE_ERROR(status) || pci_ext_cfg_is_aliased(dev))
  return PCI_CFG_SPACE_SIZE;

 return PCI_CFG_SPACE_EXP_SIZE;
}

int pci_cfg_space_size(struct pci_dev *dev)
{
 int pos;
 u32 status;
 u16 class;

#ifdef CONFIG_PCI_IOV
 /*
 * Per the SR-IOV specification (rev 1.1, sec 3.5), VFs are required to
 * implement a PCIe capability and therefore must implement extended
 * config space.  We can skip the NO_EXTCFG test below and the
 * reachability/aliasing test in pci_cfg_space_size_ext() by virtue of
 * the fact that the SR-IOV capability on the PF resides in extended
 * config space and must be accessible and non-aliased to have enabled
 * support for this VF.  This is a micro performance optimization for
 * systems supporting many VFs.
 */

 if (dev->is_virtfn)
  return PCI_CFG_SPACE_EXP_SIZE;
#endif

 if (dev->bus->bus_flags & PCI_BUS_FLAGS_NO_EXTCFG)
  return PCI_CFG_SPACE_SIZE;

 class = dev->class >> 8;
 if (class == PCI_CLASS_BRIDGE_HOST)
  return pci_cfg_space_size_ext(dev);

 if (pci_is_pcie(dev))
  return pci_cfg_space_size_ext(dev);

 pos = pci_find_capability(dev, PCI_CAP_ID_PCIX);
 if (!pos)
  return PCI_CFG_SPACE_SIZE;

 pci_read_config_dword(dev, pos + PCI_X_STATUS, &status);
 if (status & (PCI_X_STATUS_266MHZ | PCI_X_STATUS_533MHZ))
  return pci_cfg_space_size_ext(dev);

 return PCI_CFG_SPACE_SIZE;
}

static u32 pci_class(struct pci_dev *dev)
{
 u32 class;

#ifdef CONFIG_PCI_IOV
 if (dev->is_virtfn)
  return dev->physfn->sriov->class;
#endif
 pci_read_config_dword(dev, PCI_CLASS_REVISION, &class);
 return class;
}

static void pci_subsystem_ids(struct pci_dev *dev, u16 *vendor, u16 *device)
{
#ifdef CONFIG_PCI_IOV
 if (dev->is_virtfn) {
  *vendor = dev->physfn->sriov->subsystem_vendor;
  *device = dev->physfn->sriov->subsystem_device;
  return;
 }
#endif
 pci_read_config_word(dev, PCI_SUBSYSTEM_VENDOR_ID, vendor);
 pci_read_config_word(dev, PCI_SUBSYSTEM_ID, device);
}

static u8 pci_hdr_type(struct pci_dev *dev)
{
 u8 hdr_type;

#ifdef CONFIG_PCI_IOV
 if (dev->is_virtfn)
  return dev->physfn->sriov->hdr_type;
#endif
 pci_read_config_byte(dev, PCI_HEADER_TYPE, &hdr_type);
 return hdr_type;
}

#define LEGACY_IO_RESOURCE (IORESOURCE_IO | IORESOURCE_PCI_FIXED)

/**
 * pci_intx_mask_broken - Test PCI_COMMAND_INTX_DISABLE writability
 * @dev: PCI device
 *
 * Test whether PCI_COMMAND_INTX_DISABLE is writable for @dev.  Check this
 * at enumeration-time to avoid modifying PCI_COMMAND at run-time.
 */

static int pci_intx_mask_broken(struct pci_dev *dev)
{
 u16 orig, toggle, new;

 pci_read_config_word(dev, PCI_COMMAND, &orig);
 toggle = orig ^ PCI_COMMAND_INTX_DISABLE;
 pci_write_config_word(dev, PCI_COMMAND, toggle);
 pci_read_config_word(dev, PCI_COMMAND, &new);

 pci_write_config_word(dev, PCI_COMMAND, orig);

 /*
 * PCI_COMMAND_INTX_DISABLE was reserved and read-only prior to PCI
 * r2.3, so strictly speaking, a device is not *broken* if it's not
 * writable.  But we'll live with the misnomer for now.
 */

 if (new != toggle)
  return 1;
 return 0;
}

static void early_dump_pci_device(struct pci_dev *pdev)
{
 u32 value[256 / 4];
 int i;

 pci_info(pdev, "config space:\n");

 for (i = 0; i < 256; i += 4)
  pci_read_config_dword(pdev, i, &value[i / 4]);

 print_hex_dump(KERN_INFO, "", DUMP_PREFIX_OFFSET, 16, 1,
         value, 256, false);
}

static const char *pci_type_str(struct pci_dev *dev)
{
 static const char * const str[] = {
  "PCIe Endpoint",
  "PCIe Legacy Endpoint",
  "PCIe unknown",
  "PCIe unknown",
  "PCIe Root Port",
  "PCIe Switch Upstream Port",
  "PCIe Switch Downstream Port",
  "PCIe to PCI/PCI-X bridge",
  "PCI/PCI-X to PCIe bridge",
  "PCIe Root Complex Integrated Endpoint",
  "PCIe Root Complex Event Collector",
 };
 int type;

 if (pci_is_pcie(dev)) {
  type = pci_pcie_type(dev);
  if (type < ARRAY_SIZE(str))
   return str[type];

  return "PCIe unknown";
 }

 switch (dev->hdr_type) {
 case PCI_HEADER_TYPE_NORMAL:
  return "conventional PCI endpoint";
 case PCI_HEADER_TYPE_BRIDGE:
  return "conventional PCI bridge";
 case PCI_HEADER_TYPE_CARDBUS:
  return "CardBus bridge";
 default:
  return "conventional PCI";
 }
}

/**
 * pci_setup_device - Fill in class and map information of a device
 * @dev: the device structure to fill
 *
 * Initialize the device structure with information about the device's
 * vendor,class,memory and IO-space addresses, IRQ lines etc.
 * Called at initialisation of the PCI subsystem and by CardBus services.
 * Returns 0 on success and negative if unknown type of device (not normal,
 * bridge or CardBus).
 */

int pci_setup_device(struct pci_dev *dev)
{
 u32 class;
 u16 cmd;
 u8 hdr_type;
 int err, pos = 0;
 struct pci_bus_region region;
 struct resource *res;

 hdr_type = pci_hdr_type(dev);

 dev->sysdata = dev->bus->sysdata;
 dev->dev.parent = dev->bus->bridge;
 dev->dev.bus = &pci_bus_type;
 dev->hdr_type = hdr_type & 0x7f;
 dev->multifunction = !!(hdr_type & 0x80);
 dev->error_state = pci_channel_io_normal;
 set_pcie_port_type(dev);

 err = pci_set_of_node(dev);
 if (err)
  return err;
 pci_set_acpi_fwnode(dev);

 pci_dev_assign_slot(dev);

 /*
 * Assume 32-bit PCI; let 64-bit PCI cards (which are far rarer)
 * set this higher, assuming the system even supports it.
 */

 dev->dma_mask = 0xffffffff;

 dev_set_name(&dev->dev, "%04x:%02x:%02x.%d", pci_domain_nr(dev->bus),
       dev->bus->number, PCI_SLOT(dev->devfn),
       PCI_FUNC(dev->devfn));

 class = pci_class(dev);

 dev->revision = class & 0xff;
 dev->class = class >> 8;      /* upper 3 bytes */

 if (pci_early_dump)
  early_dump_pci_device(dev);

 /* Need to have dev->class ready */
 dev->cfg_size = pci_cfg_space_size(dev);

 /* Need to have dev->cfg_size ready */
 set_pcie_thunderbolt(dev);

 set_pcie_untrusted(dev);

 if (pci_is_pcie(dev))
  dev->supported_speeds = pcie_get_supported_speeds(dev);

 /* "Unknown power state" */
 dev->current_state = PCI_UNKNOWN;

 /* Early fixups, before probing the BARs */
 pci_fixup_device(pci_fixup_early, dev);

 pci_set_removable(dev);

 pci_info(dev, "[%04x:%04x] type %02x class %#08x %s\n",
   dev->vendor, dev->device, dev->hdr_type, dev->class,
   pci_type_str(dev));

 /* Device class may be changed after fixup */
 class = dev->class >> 8;

 if (dev->non_compliant_bars && !dev->mmio_always_on) {
  pci_read_config_word(dev, PCI_COMMAND, &cmd);
  if (cmd & (PCI_COMMAND_IO | PCI_COMMAND_MEMORY)) {
   pci_info(dev, "device has non-compliant BARs; disabling IO/MEM decoding\n");
   cmd &= ~PCI_COMMAND_IO;
   cmd &= ~PCI_COMMAND_MEMORY;
   pci_write_config_word(dev, PCI_COMMAND, cmd);
  }
 }

 dev->broken_intx_masking = pci_intx_mask_broken(dev);

 switch (dev->hdr_type) {      /* header type */
 case PCI_HEADER_TYPE_NORMAL:      /* standard header */
  if (class == PCI_CLASS_BRIDGE_PCI)
   goto bad;
  pci_read_irq(dev);
  pci_read_bases(dev, PCI_STD_NUM_BARS, PCI_ROM_ADDRESS);

  pci_subsystem_ids(dev, &dev->subsystem_vendor, &dev->subsystem_device);

  /*
 * Do the ugly legacy mode stuff here rather than broken chip
 * quirk code. Legacy mode ATA controllers have fixed
 * addresses. These are not always echoed in BAR0-3, and
 * BAR0-3 in a few cases contain junk!
 */

  if (class == PCI_CLASS_STORAGE_IDE) {
   u8 progif;
   pci_read_config_byte(dev, PCI_CLASS_PROG, &progif);
   if ((progif & 1) == 0) {
    region.start = 0x1F0;
    region.end = 0x1F7;
    res = &dev->resource[0];
    res->flags = LEGACY_IO_RESOURCE;
    pcibios_bus_to_resource(dev->bus, res, ®ion);
    pci_info(dev, "BAR 0 %pR: legacy IDE quirk\n",
      res);
    region.start = 0x3F6;
    region.end = 0x3F6;
    res = &dev->resource[1];
    res->flags = LEGACY_IO_RESOURCE;
    pcibios_bus_to_resource(dev->bus, res, ®ion);
    pci_info(dev, "BAR 1 %pR: legacy IDE quirk\n",
      res);
   }
   if ((progif & 4) == 0) {
    region.start = 0x170;
    region.end = 0x177;
    res = &dev->resource[2];
    res->flags = LEGACY_IO_RESOURCE;
    pcibios_bus_to_resource(dev->bus, res, ®ion);
    pci_info(dev, "BAR 2 %pR: legacy IDE quirk\n",
      res);
    region.start = 0x376;
    region.end = 0x376;
    res = &dev->resource[3];
    res->flags = LEGACY_IO_RESOURCE;
    pcibios_bus_to_resource(dev->bus, res, ®ion);
    pci_info(dev, "BAR 3 %pR: legacy IDE quirk\n",
      res);
   }
  }
  break;

 case PCI_HEADER_TYPE_BRIDGE:      /* bridge header */
  /*
 * The PCI-to-PCI bridge spec requires that subtractive
 * decoding (i.e. transparent) bridge must have programming
 * interface code of 0x01.
 */

  pci_read_irq(dev);
  dev->transparent = ((dev->class & 0xff) == 1);
  pci_read_bases(dev, 2, PCI_ROM_ADDRESS1);
  pci_read_bridge_windows(dev);
  set_pcie_hotplug_bridge(dev);
  pos = pci_find_capability(dev, PCI_CAP_ID_SSVID);
  if (pos) {
   pci_read_config_word(dev, pos + PCI_SSVID_VENDOR_ID, &dev->subsystem_vendor);
   pci_read_config_word(dev, pos + PCI_SSVID_DEVICE_ID, &dev->subsystem_device);
  }
  break;

 case PCI_HEADER_TYPE_CARDBUS:      /* CardBus bridge header */
  if (class != PCI_CLASS_BRIDGE_CARDBUS)
   goto bad;
  pci_read_irq(dev);
  pci_read_bases(dev, 1, 0);
  pci_read_config_word(dev, PCI_CB_SUBSYSTEM_VENDOR_ID, &dev->subsystem_vendor);
  pci_read_config_word(dev, PCI_CB_SUBSYSTEM_ID, &dev->subsystem_device);
  break;

 default:        /* unknown header */
  pci_err(dev, "unknown header type %02x, ignoring device\n",
   dev->hdr_type);
  pci_release_of_node(dev);
  return -EIO;

 bad:
  pci_err(dev, "ignoring class %#08x (doesn't match header type %02x)\n",
   dev->class, dev->hdr_type);
  dev->class = PCI_CLASS_NOT_DEFINED << 8;
 }

 /* We found a fine healthy device, go go go... */
 return 0;
}

static void pci_configure_mps(struct pci_dev *dev)
{
 struct pci_dev *bridge = pci_upstream_bridge(dev);
 int mps, mpss, p_mps, rc;

 if (!pci_is_pcie(dev))
  return;

 /* MPS and MRRS fields are of type 'RsvdP' for VFs, short-circuit out */
 if (dev->is_virtfn)
  return;

 /*
 * For Root Complex Integrated Endpoints, program the maximum
 * supported value unless limited by the PCIE_BUS_PEER2PEER case.
 */

 if (pci_pcie_type(dev) == PCI_EXP_TYPE_RC_END) {
  if (pcie_bus_config == PCIE_BUS_PEER2PEER)
   mps = 128;
  else
   mps = 128 << dev->pcie_mpss;
  rc = pcie_set_mps(dev, mps);
  if (rc) {
   pci_warn(dev, "can't set Max Payload Size to %d; if necessary, use \"pci=pcie_bus_safe\" and report a bug\n",
     mps);
  }
  return;
 }

 if (!bridge || !pci_is_pcie(bridge))
  return;

 mps = pcie_get_mps(dev);
 p_mps = pcie_get_mps(bridge);

 if (mps == p_mps)
  return;

 if (pcie_bus_config == PCIE_BUS_TUNE_OFF) {
  pci_warn(dev, "Max Payload Size %d, but upstream %s set to %d; if necessary, use \"pci=pcie_bus_safe\" and report a bug\n",
    mps, pci_name(bridge), p_mps);
  return;
 }

 /*
 * Fancier MPS configuration is done later by
 * pcie_bus_configure_settings()
 */

 if (pcie_bus_config != PCIE_BUS_DEFAULT)
  return;

 mpss = 128 << dev->pcie_mpss;
 if (mpss < p_mps && pci_pcie_type(bridge) == PCI_EXP_TYPE_ROOT_PORT) {
  pcie_set_mps(bridge, mpss);
  pci_info(dev, "Upstream bridge's Max Payload Size set to %d (was %d, max %d)\n",
    mpss, p_mps, 128 << bridge->pcie_mpss);
  p_mps = pcie_get_mps(bridge);
 }

 rc = pcie_set_mps(dev, p_mps);
 if (rc) {
  pci_warn(dev, "can't set Max Payload Size to %d; if necessary, use \"pci=pcie_bus_safe\" and report a bug\n",
    p_mps);
  return;
 }

 pci_info(dev, "Max Payload Size set to %d (was %d, max %d)\n",
   p_mps, mps, mpss);
}

int pci_configure_extended_tags(struct pci_dev *dev, void *ign)
{
 struct pci_host_bridge *host;
 u32 cap;
 u16 ctl;
 int ret;

 if (!pci_is_pcie(dev))
  return 0;

 ret = pcie_capability_read_dword(dev, PCI_EXP_DEVCAP, &cap);
 if (ret)
  return 0;

 if (!(cap & PCI_EXP_DEVCAP_EXT_TAG))
  return 0;

 ret = pcie_capability_read_word(dev, PCI_EXP_DEVCTL, &ctl);
 if (ret)
  return 0;

 host = pci_find_host_bridge(dev->bus);
 if (!host)
  return 0;

 /*
 * If some device in the hierarchy doesn't handle Extended Tags
 * correctly, make sure they're disabled.
 */

 if (host->no_ext_tags) {
  if (ctl & PCI_EXP_DEVCTL_EXT_TAG) {
   pci_info(dev, "disabling Extended Tags\n");
   pcie_capability_clear_word(dev, PCI_EXP_DEVCTL,
         PCI_EXP_DEVCTL_EXT_TAG);
  }
  return 0;
 }

 if (!(ctl & PCI_EXP_DEVCTL_EXT_TAG)) {
  pci_info(dev, "enabling Extended Tags\n");
  pcie_capability_set_word(dev, PCI_EXP_DEVCTL,
      PCI_EXP_DEVCTL_EXT_TAG);
 }
 return 0;
}

/**
 * pcie_relaxed_ordering_enabled - Probe for PCIe relaxed ordering enable
 * @dev: PCI device to query
 *
 * Returns true if the device has enabled relaxed ordering attribute.
 */

bool pcie_relaxed_ordering_enabled(struct pci_dev *dev)
{
 u16 v;

 pcie_capability_read_word(dev, PCI_EXP_DEVCTL, &v);

 return !!(v & PCI_EXP_DEVCTL_RELAX_EN);
}
EXPORT_SYMBOL(pcie_relaxed_ordering_enabled);

static void pci_configure_relaxed_ordering(struct pci_dev *dev)
{
 struct pci_dev *root;

 /* PCI_EXP_DEVCTL_RELAX_EN is RsvdP in VFs */
 if (dev->is_virtfn)
  return;

 if (!pcie_relaxed_ordering_enabled(dev))
  return;

 /*
 * For now, we only deal with Relaxed Ordering issues with Root
 * Ports. Peer-to-Peer DMA is another can of worms.
 */

 root = pcie_find_root_port(dev);
 if (!root)
  return;

 if (root->dev_flags & PCI_DEV_FLAGS_NO_RELAXED_ORDERING) {
  pcie_capability_clear_word(dev, PCI_EXP_DEVCTL,
        PCI_EXP_DEVCTL_RELAX_EN);
  pci_info(dev, "Relaxed Ordering disabled because the Root Port didn't support it\n");
 }
}

static void pci_configure_eetlp_prefix(struct pci_dev *dev)
{
 struct pci_dev *bridge;
 unsigned int eetlp_max;
 int pcie_type;
 u32 cap;

 if (!pci_is_pcie(dev))
  return;

 pcie_capability_read_dword(dev, PCI_EXP_DEVCAP2, &cap);
 if (!(cap & PCI_EXP_DEVCAP2_EE_PREFIX))
  return;

 pcie_type = pci_pcie_type(dev);

 eetlp_max = FIELD_GET(PCI_EXP_DEVCAP2_EE_PREFIX_MAX, cap);
 /* 00b means 4 */
 eetlp_max = eetlp_max ?: 4;

 if (pcie_type == PCI_EXP_TYPE_ROOT_PORT ||
     pcie_type == PCI_EXP_TYPE_RC_END)
  dev->eetlp_prefix_max = eetlp_max;
 else {
  bridge = pci_upstream_bridge(dev);
  if (bridge && bridge->eetlp_prefix_max)
   dev->eetlp_prefix_max = eetlp_max;
 }
}

static void pci_configure_serr(struct pci_dev *dev)
{
 u16 control;

 if (dev->hdr_type == PCI_HEADER_TYPE_BRIDGE) {

  /*
 * A bridge will not forward ERR_ messages coming from an
 * endpoint unless SERR# forwarding is enabled.
 */

  pci_read_config_word(dev, PCI_BRIDGE_CONTROL, &control);
  if (!(control & PCI_BRIDGE_CTL_SERR)) {
   control |= PCI_BRIDGE_CTL_SERR;
   pci_write_config_word(dev, PCI_BRIDGE_CONTROL, control);
  }
 }
}

static void pci_configure_device(struct pci_dev *dev)
{
 pci_configure_mps(dev);
 pci_configure_extended_tags(dev, NULL);
 pci_configure_relaxed_ordering(dev);
 pci_configure_ltr(dev);
 pci_configure_aspm_l1ss(dev);
 pci_configure_eetlp_prefix(dev);
 pci_configure_serr(dev);

 pci_acpi_program_hp_params(dev);
}

static void pci_release_capabilities(struct pci_dev *dev)
{
 pci_aer_exit(dev);
 pci_rcec_exit(dev);
 pci_iov_release(dev);
 pci_free_cap_save_buffers(dev);
}

/**
 * pci_release_dev - Free a PCI device structure when all users of it are
 *      finished
 * @dev: device that's been disconnected
 *
 * Will be called only by the device core when all users of this PCI device are
 * done.
 */

static void pci_release_dev(struct device *dev)
{
 struct pci_dev *pci_dev;

 pci_dev = to_pci_dev(dev);
 pci_release_capabilities(pci_dev);
 pci_release_of_node(pci_dev);
 pcibios_release_device(pci_dev);
 pci_bus_put(pci_dev->bus);
 kfree(pci_dev->driver_override);
 bitmap_free(pci_dev->dma_alias_mask);
 dev_dbg(dev, "device released\n");
 kfree(pci_dev);
}

static const struct device_type pci_dev_type = {
 .groups = pci_dev_attr_groups,
};

struct pci_dev *pci_alloc_dev(struct pci_bus *bus)
{
 struct pci_dev *dev;

 dev = kzalloc(sizeof(struct pci_dev), GFP_KERNEL);
 if (!dev)
  return NULL;

 INIT_LIST_HEAD(&dev->bus_list);
 dev->dev.type = &pci_dev_type;
 dev->bus = pci_bus_get(bus);
 dev->driver_exclusive_resource = (struct resource) {
  .name = "PCI Exclusive",
  .start = 0,
  .end = -1,
 };

 spin_lock_init(&dev->pcie_cap_lock);
#ifdef CONFIG_PCI_MSI
 raw_spin_lock_init(&dev->msi_lock);
#endif
 return dev;
}
EXPORT_SYMBOL(pci_alloc_dev);

static bool pci_bus_wait_rrs(struct pci_bus *bus, int devfn, u32 *l,
        int timeout)
{
 int delay = 1;

 if (!pci_bus_rrs_vendor_id(*l))
  return true/* not a Configuration RRS completion */

 if (!timeout)
  return false/* RRS, but caller doesn't want to wait */

 /*
 * We got the reserved Vendor ID that indicates a completion with
 * Configuration Request Retry Status (RRS).  Retry until we get a
 * valid Vendor ID or we time out.
 */

 while (pci_bus_rrs_vendor_id(*l)) {
  if (delay > timeout) {
   pr_warn("pci %04x:%02x:%02x.%d: not ready after %dms; giving up\n",
    pci_domain_nr(bus), bus->number,
    PCI_SLOT(devfn), PCI_FUNC(devfn), delay - 1);

--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=92 H=94 G=92

¤ Dauer der Verarbeitung: 0.25 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.