Quellcodebibliothek Statistik Leitseite products/sources/formale Sprachen/C/Linux/fs/nfsd/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 57 kB image not shown  

Quelle  spi.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-or-later
// SPI init/core code
//
// Copyright (C) 2005 David Brownell
// Copyright (C) 2008 Secret Lab Technologies Ltd.

#include <linux/acpi.h>
#include <linux/cache.h>
#include <linux/clk/clk-conf.h>
#include <linux/delay.h>
#include <linux/device.h>
#include <linux/dmaengine.h>
#include <linux/dma-mapping.h>
#include <linux/export.h>
#include <linux/gpio/consumer.h>
#include <linux/highmem.h>
#include <linux/idr.h>
#include <linux/init.h>
#include <linux/ioport.h>
#include <linux/kernel.h>
#include <linux/kthread.h>
#include <linux/mod_devicetable.h>
#include <linux/mutex.h>
#include <linux/of_device.h>
#include <linux/of_irq.h>
#include <linux/percpu.h>
#include <linux/platform_data/x86/apple.h>
#include <linux/pm_domain.h>
#include <linux/pm_runtime.h>
#include <linux/property.h>
#include <linux/ptp_clock_kernel.h>
#include <linux/sched/rt.h>
#include <linux/slab.h>
#include <linux/spi/offload/types.h>
#include <linux/spi/spi.h>
#include <linux/spi/spi-mem.h>
#include <uapi/linux/sched/types.h>

#define CREATE_TRACE_POINTS
#include <trace/events/spi.h>
EXPORT_TRACEPOINT_SYMBOL(spi_transfer_start);
EXPORT_TRACEPOINT_SYMBOL(spi_transfer_stop);

#include "internals.h"

static DEFINE_IDR(spi_controller_idr);

static void spidev_release(struct device *dev)
{
 struct spi_device *spi = to_spi_device(dev);

 spi_controller_put(spi->controller);
 kfree(spi->driver_override);
 free_percpu(spi->pcpu_statistics);
 kfree(spi);
}

static ssize_t
modalias_show(struct device *dev, struct device_attribute *a, char *buf)
{
 const struct spi_device *spi = to_spi_device(dev);
 int len;

 len = acpi_device_modalias(dev, buf, PAGE_SIZE - 1);
 if (len != -ENODEV)
  return len;

 return sysfs_emit(buf, "%s%s\n", SPI_MODULE_PREFIX, spi->modalias);
}
static DEVICE_ATTR_RO(modalias);

static ssize_t driver_override_store(struct device *dev,
         struct device_attribute *a,
         const char *buf, size_t count)
{
 struct spi_device *spi = to_spi_device(dev);
 int ret;

 ret = driver_set_override(dev, &spi->driver_override, buf, count);
 if (ret)
  return ret;

 return count;
}

static ssize_t driver_override_show(struct device *dev,
        struct device_attribute *a, char *buf)
{
 const struct spi_device *spi = to_spi_device(dev);
 ssize_t len;

 device_lock(dev);
 len = sysfs_emit(buf, "%s\n", spi->driver_override ? : "");
 device_unlock(dev);
 return len;
}
static DEVICE_ATTR_RW(driver_override);

static struct spi_statistics __percpu *spi_alloc_pcpu_stats(struct device *dev)
{
 struct spi_statistics __percpu *pcpu_stats;

 if (dev)
  pcpu_stats = devm_alloc_percpu(dev, struct spi_statistics);
 else
  pcpu_stats = alloc_percpu_gfp(struct spi_statistics, GFP_KERNEL);

 if (pcpu_stats) {
  int cpu;

  for_each_possible_cpu(cpu) {
   struct spi_statistics *stat;

   stat = per_cpu_ptr(pcpu_stats, cpu);
   u64_stats_init(&stat->syncp);
  }
 }
 return pcpu_stats;
}

static ssize_t spi_emit_pcpu_stats(struct spi_statistics __percpu *stat,
       char *buf, size_t offset)
{
 u64 val = 0;
 int i;

 for_each_possible_cpu(i) {
  const struct spi_statistics *pcpu_stats;
  u64_stats_t *field;
  unsigned int start;
  u64 inc;

  pcpu_stats = per_cpu_ptr(stat, i);
  field = (void *)pcpu_stats + offset;
  do {
   start = u64_stats_fetch_begin(&pcpu_stats->syncp);
   inc = u64_stats_read(field);
  } while (u64_stats_fetch_retry(&pcpu_stats->syncp, start));
  val += inc;
 }
 return sysfs_emit(buf, "%llu\n", val);
}

#define SPI_STATISTICS_ATTRS(field, file)    \
static ssize_t spi_controller_##field##_show(struct device *dev, \
          struct device_attribute *attr, \
          char *buf)   \
{         \
 struct spi_controller *ctlr = container_of(dev,   \
      struct spi_controller, dev); \
 return spi_statistics_##field##_show(ctlr->pcpu_statistics, buf); \
}         \
static struct device_attribute dev_attr_spi_controller_##field = { \
 .attr = { .name = file, .mode = 0444 },    \
 .show = spi_controller_##field##_show,    \
};         \
static ssize_t spi_device_##field##_show(struct device *dev,  \
      struct device_attribute *attr, \
     char *buf)   \
{         \
 struct spi_device *spi = to_spi_device(dev);   \
 return spi_statistics_##field##_show(spi->pcpu_statistics, buf); \
}         \
static struct device_attribute dev_attr_spi_device_##field = {  \
 .attr = { .name = file, .mode = 0444 },    \
 .show = spi_device_##field##_show,    \
}

#define SPI_STATISTICS_SHOW_NAME(name, file, field)   \
static ssize_t spi_statistics_##name##_show(struct spi_statistics __percpu *stat, \
         char *buf)   \
{         \
 return spi_emit_pcpu_stats(stat, buf,    \
   offsetof(struct spi_statistics, field)); \
}         \
SPI_STATISTICS_ATTRS(name, file)

#define SPI_STATISTICS_SHOW(field)     \
 SPI_STATISTICS_SHOW_NAME(field, __stringify(field),  \
     field)

SPI_STATISTICS_SHOW(messages);
SPI_STATISTICS_SHOW(transfers);
SPI_STATISTICS_SHOW(errors);
SPI_STATISTICS_SHOW(timedout);

SPI_STATISTICS_SHOW(spi_sync);
SPI_STATISTICS_SHOW(spi_sync_immediate);
SPI_STATISTICS_SHOW(spi_async);

SPI_STATISTICS_SHOW(bytes);
SPI_STATISTICS_SHOW(bytes_rx);
SPI_STATISTICS_SHOW(bytes_tx);

#define SPI_STATISTICS_TRANSFER_BYTES_HISTO(index, number)  \
 SPI_STATISTICS_SHOW_NAME(transfer_bytes_histo##index,  \
     "transfer_bytes_histo_" number, \
     transfer_bytes_histo[index])
SPI_STATISTICS_TRANSFER_BYTES_HISTO(0,  "0-1");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(1,  "2-3");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(2,  "4-7");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(3,  "8-15");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(4,  "16-31");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(5,  "32-63");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(6,  "64-127");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(7,  "128-255");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(8,  "256-511");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(9,  "512-1023");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(10, "1024-2047");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(11, "2048-4095");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(12, "4096-8191");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(13, "8192-16383");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(14, "16384-32767");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(15, "32768-65535");
SPI_STATISTICS_TRANSFER_BYTES_HISTO(16, "65536+");

SPI_STATISTICS_SHOW(transfers_split_maxsize);

static struct attribute *spi_dev_attrs[] = {
 &dev_attr_modalias.attr,
 &dev_attr_driver_override.attr,
 NULL,
};

static const struct attribute_group spi_dev_group = {
 .attrs  = spi_dev_attrs,
};

static struct attribute *spi_device_statistics_attrs[] = {
 &dev_attr_spi_device_messages.attr,
 &dev_attr_spi_device_transfers.attr,
 &dev_attr_spi_device_errors.attr,
 &dev_attr_spi_device_timedout.attr,
 &dev_attr_spi_device_spi_sync.attr,
 &dev_attr_spi_device_spi_sync_immediate.attr,
 &dev_attr_spi_device_spi_async.attr,
 &dev_attr_spi_device_bytes.attr,
 &dev_attr_spi_device_bytes_rx.attr,
 &dev_attr_spi_device_bytes_tx.attr,
 &dev_attr_spi_device_transfer_bytes_histo0.attr,
 &dev_attr_spi_device_transfer_bytes_histo1.attr,
 &dev_attr_spi_device_transfer_bytes_histo2.attr,
 &dev_attr_spi_device_transfer_bytes_histo3.attr,
 &dev_attr_spi_device_transfer_bytes_histo4.attr,
 &dev_attr_spi_device_transfer_bytes_histo5.attr,
 &dev_attr_spi_device_transfer_bytes_histo6.attr,
 &dev_attr_spi_device_transfer_bytes_histo7.attr,
 &dev_attr_spi_device_transfer_bytes_histo8.attr,
 &dev_attr_spi_device_transfer_bytes_histo9.attr,
 &dev_attr_spi_device_transfer_bytes_histo10.attr,
 &dev_attr_spi_device_transfer_bytes_histo11.attr,
 &dev_attr_spi_device_transfer_bytes_histo12.attr,
 &dev_attr_spi_device_transfer_bytes_histo13.attr,
 &dev_attr_spi_device_transfer_bytes_histo14.attr,
 &dev_attr_spi_device_transfer_bytes_histo15.attr,
 &dev_attr_spi_device_transfer_bytes_histo16.attr,
 &dev_attr_spi_device_transfers_split_maxsize.attr,
 NULL,
};

static const struct attribute_group spi_device_statistics_group = {
 .name  = "statistics",
 .attrs  = spi_device_statistics_attrs,
};

static const struct attribute_group *spi_dev_groups[] = {
 &spi_dev_group,
 &spi_device_statistics_group,
 NULL,
};

static struct attribute *spi_controller_statistics_attrs[] = {
 &dev_attr_spi_controller_messages.attr,
 &dev_attr_spi_controller_transfers.attr,
 &dev_attr_spi_controller_errors.attr,
 &dev_attr_spi_controller_timedout.attr,
 &dev_attr_spi_controller_spi_sync.attr,
 &dev_attr_spi_controller_spi_sync_immediate.attr,
 &dev_attr_spi_controller_spi_async.attr,
 &dev_attr_spi_controller_bytes.attr,
 &dev_attr_spi_controller_bytes_rx.attr,
 &dev_attr_spi_controller_bytes_tx.attr,
 &dev_attr_spi_controller_transfer_bytes_histo0.attr,
 &dev_attr_spi_controller_transfer_bytes_histo1.attr,
 &dev_attr_spi_controller_transfer_bytes_histo2.attr,
 &dev_attr_spi_controller_transfer_bytes_histo3.attr,
 &dev_attr_spi_controller_transfer_bytes_histo4.attr,
 &dev_attr_spi_controller_transfer_bytes_histo5.attr,
 &dev_attr_spi_controller_transfer_bytes_histo6.attr,
 &dev_attr_spi_controller_transfer_bytes_histo7.attr,
 &dev_attr_spi_controller_transfer_bytes_histo8.attr,
 &dev_attr_spi_controller_transfer_bytes_histo9.attr,
 &dev_attr_spi_controller_transfer_bytes_histo10.attr,
 &dev_attr_spi_controller_transfer_bytes_histo11.attr,
 &dev_attr_spi_controller_transfer_bytes_histo12.attr,
 &dev_attr_spi_controller_transfer_bytes_histo13.attr,
 &dev_attr_spi_controller_transfer_bytes_histo14.attr,
 &dev_attr_spi_controller_transfer_bytes_histo15.attr,
 &dev_attr_spi_controller_transfer_bytes_histo16.attr,
 &dev_attr_spi_controller_transfers_split_maxsize.attr,
 NULL,
};

static const struct attribute_group spi_controller_statistics_group = {
 .name  = "statistics",
 .attrs  = spi_controller_statistics_attrs,
};

static const struct attribute_group *spi_controller_groups[] = {
 &spi_controller_statistics_group,
 NULL,
};

static void spi_statistics_add_transfer_stats(struct spi_statistics __percpu *pcpu_stats,
           struct spi_transfer *xfer,
           struct spi_message *msg)
{
 int l2len = min(fls(xfer->len), SPI_STATISTICS_HISTO_SIZE) - 1;
 struct spi_statistics *stats;

 if (l2len < 0)
  l2len = 0;

 get_cpu();
 stats = this_cpu_ptr(pcpu_stats);
 u64_stats_update_begin(&stats->syncp);

 u64_stats_inc(&stats->transfers);
 u64_stats_inc(&stats->transfer_bytes_histo[l2len]);

 u64_stats_add(&stats->bytes, xfer->len);
 if (spi_valid_txbuf(msg, xfer))
  u64_stats_add(&stats->bytes_tx, xfer->len);
 if (spi_valid_rxbuf(msg, xfer))
  u64_stats_add(&stats->bytes_rx, xfer->len);

 u64_stats_update_end(&stats->syncp);
 put_cpu();
}

/*
 * modalias support makes "modprobe $MODALIAS" new-style hotplug work,
 * and the sysfs version makes coldplug work too.
 */

static const struct spi_device_id *spi_match_id(const struct spi_device_id *id, const char *name)
{
 while (id->name[0]) {
  if (!strcmp(name, id->name))
   return id;
  id++;
 }
 return NULL;
}

const struct spi_device_id *spi_get_device_id(const struct spi_device *sdev)
{
 const struct spi_driver *sdrv = to_spi_driver(sdev->dev.driver);

 return spi_match_id(sdrv->id_table, sdev->modalias);
}
EXPORT_SYMBOL_GPL(spi_get_device_id);

const void *spi_get_device_match_data(const struct spi_device *sdev)
{
 const void *match;

 match = device_get_match_data(&sdev->dev);
 if (match)
  return match;

 return (const void *)spi_get_device_id(sdev)->driver_data;
}
EXPORT_SYMBOL_GPL(spi_get_device_match_data);

static int spi_match_device(struct device *dev, const struct device_driver *drv)
{
 const struct spi_device *spi = to_spi_device(dev);
 const struct spi_driver *sdrv = to_spi_driver(drv);

 /* Check override first, and if set, only use the named driver */
 if (spi->driver_override)
  return strcmp(spi->driver_override, drv->name) == 0;

 /* Attempt an OF style match */
 if (of_driver_match_device(dev, drv))
  return 1;

 /* Then try ACPI */
 if (acpi_driver_match_device(dev, drv))
  return 1;

 if (sdrv->id_table)
  return !!spi_match_id(sdrv->id_table, spi->modalias);

 return strcmp(spi->modalias, drv->name) == 0;
}

static int spi_uevent(const struct device *dev, struct kobj_uevent_env *env)
{
 const struct spi_device  *spi = to_spi_device(dev);
 int rc;

 rc = acpi_device_uevent_modalias(dev, env);
 if (rc != -ENODEV)
  return rc;

 return add_uevent_var(env, "MODALIAS=%s%s", SPI_MODULE_PREFIX, spi->modalias);
}

static int spi_probe(struct device *dev)
{
 const struct spi_driver  *sdrv = to_spi_driver(dev->driver);
 struct spi_device  *spi = to_spi_device(dev);
 struct fwnode_handle  *fwnode = dev_fwnode(dev);
 int ret;

 ret = of_clk_set_defaults(dev->of_node, false);
 if (ret)
  return ret;

 if (is_of_node(fwnode))
  spi->irq = of_irq_get(dev->of_node, 0);
 else if (is_acpi_device_node(fwnode) && spi->irq < 0)
  spi->irq = acpi_dev_gpio_irq_get(to_acpi_device_node(fwnode), 0);
 if (spi->irq == -EPROBE_DEFER)
  return dev_err_probe(dev, spi->irq, "Failed to get irq\n");
 if (spi->irq < 0)
  spi->irq = 0;

 ret = dev_pm_domain_attach(dev, PD_FLAG_ATTACH_POWER_ON);
 if (ret)
  return ret;

 if (sdrv->probe) {
  ret = sdrv->probe(spi);
  if (ret)
   dev_pm_domain_detach(dev, true);
 }

 return ret;
}

static void spi_remove(struct device *dev)
{
 const struct spi_driver  *sdrv = to_spi_driver(dev->driver);

 if (sdrv->remove)
  sdrv->remove(to_spi_device(dev));

 dev_pm_domain_detach(dev, true);
}

static void spi_shutdown(struct device *dev)
{
 if (dev->driver) {
  const struct spi_driver *sdrv = to_spi_driver(dev->driver);

  if (sdrv->shutdown)
   sdrv->shutdown(to_spi_device(dev));
 }
}

const struct bus_type spi_bus_type = {
 .name  = "spi",
 .dev_groups = spi_dev_groups,
 .match  = spi_match_device,
 .uevent  = spi_uevent,
 .probe  = spi_probe,
 .remove  = spi_remove,
 .shutdown = spi_shutdown,
};
EXPORT_SYMBOL_GPL(spi_bus_type);

/**
 * __spi_register_driver - register a SPI driver
 * @owner: owner module of the driver to register
 * @sdrv: the driver to register
 * Context: can sleep
 *
 * Return: zero on success, else a negative error code.
 */

int __spi_register_driver(struct module *owner, struct spi_driver *sdrv)
{
 sdrv->driver.owner = owner;
 sdrv->driver.bus = &spi_bus_type;

 /*
 * For Really Good Reasons we use spi: modaliases not of:
 * modaliases for DT so module autoloading won't work if we
 * don't have a spi_device_id as well as a compatible string.
 */

 if (sdrv->driver.of_match_table) {
  const struct of_device_id *of_id;

  for (of_id = sdrv->driver.of_match_table; of_id->compatible[0];
       of_id++) {
   const char *of_name;

   /* Strip off any vendor prefix */
   of_name = strnchr(of_id->compatible,
       sizeof(of_id->compatible), ',');
   if (of_name)
    of_name++;
   else
    of_name = of_id->compatible;

   if (sdrv->id_table) {
    const struct spi_device_id *spi_id;

    spi_id = spi_match_id(sdrv->id_table, of_name);
    if (spi_id)
     continue;
   } else {
    if (strcmp(sdrv->driver.name, of_name) == 0)
     continue;
   }

   pr_warn("SPI driver %s has no spi_device_id for %s\n",
    sdrv->driver.name, of_id->compatible);
  }
 }

 return driver_register(&sdrv->driver);
}
EXPORT_SYMBOL_GPL(__spi_register_driver);

/*-------------------------------------------------------------------------*/

/*
 * SPI devices should normally not be created by SPI device drivers; that
 * would make them board-specific.  Similarly with SPI controller drivers.
 * Device registration normally goes into like arch/.../mach.../board-YYY.c
 * with other readonly (flashable) information about mainboard devices.
 */


struct boardinfo {
 struct list_head list;
 struct spi_board_info board_info;
};

static LIST_HEAD(board_list);
static LIST_HEAD(spi_controller_list);

/*
 * Used to protect add/del operation for board_info list and
 * spi_controller list, and their matching process also used
 * to protect object of type struct idr.
 */

static DEFINE_MUTEX(board_lock);

/**
 * spi_alloc_device - Allocate a new SPI device
 * @ctlr: Controller to which device is connected
 * Context: can sleep
 *
 * Allows a driver to allocate and initialize a spi_device without
 * registering it immediately.  This allows a driver to directly
 * fill the spi_device with device parameters before calling
 * spi_add_device() on it.
 *
 * Caller is responsible to call spi_add_device() on the returned
 * spi_device structure to add it to the SPI controller.  If the caller
 * needs to discard the spi_device without adding it, then it should
 * call spi_dev_put() on it.
 *
 * Return: a pointer to the new device, or NULL.
 */

struct spi_device *spi_alloc_device(struct spi_controller *ctlr)
{
 struct spi_device *spi;

 if (!spi_controller_get(ctlr))
  return NULL;

 spi = kzalloc(sizeof(*spi), GFP_KERNEL);
 if (!spi) {
  spi_controller_put(ctlr);
  return NULL;
 }

 spi->pcpu_statistics = spi_alloc_pcpu_stats(NULL);
 if (!spi->pcpu_statistics) {
  kfree(spi);
  spi_controller_put(ctlr);
  return NULL;
 }

 spi->controller = ctlr;
 spi->dev.parent = &ctlr->dev;
 spi->dev.bus = &spi_bus_type;
 spi->dev.release = spidev_release;
 spi->mode = ctlr->buswidth_override_bits;

 device_initialize(&spi->dev);
 return spi;
}
EXPORT_SYMBOL_GPL(spi_alloc_device);

static void spi_dev_set_name(struct spi_device *spi)
{
 struct device *dev = &spi->dev;
 struct fwnode_handle *fwnode = dev_fwnode(dev);

 if (is_acpi_device_node(fwnode)) {
  dev_set_name(dev, "spi-%s", acpi_dev_name(to_acpi_device_node(fwnode)));
  return;
 }

 if (is_software_node(fwnode)) {
  dev_set_name(dev, "spi-%pfwP", fwnode);
  return;
 }

 dev_set_name(&spi->dev, "%s.%u", dev_name(&spi->controller->dev),
       spi_get_chipselect(spi, 0));
}

/*
 * Zero(0) is a valid physical CS value and can be located at any
 * logical CS in the spi->chip_select[]. If all the physical CS
 * are initialized to 0 then It would be difficult to differentiate
 * between a valid physical CS 0 & an unused logical CS whose physical
 * CS can be 0. As a solution to this issue initialize all the CS to -1.
 * Now all the unused logical CS will have -1 physical CS value & can be
 * ignored while performing physical CS validity checks.
 */

#define SPI_INVALID_CS  ((s8)-1)

static inline bool is_valid_cs(s8 chip_select)
{
 return chip_select != SPI_INVALID_CS;
}

static inline int spi_dev_check_cs(struct device *dev,
       struct spi_device *spi, u8 idx,
       struct spi_device *new_spi, u8 new_idx)
{
 u8 cs, cs_new;
 u8 idx_new;

 cs = spi_get_chipselect(spi, idx);
 for (idx_new = new_idx; idx_new < SPI_CS_CNT_MAX; idx_new++) {
  cs_new = spi_get_chipselect(new_spi, idx_new);
  if (is_valid_cs(cs) && is_valid_cs(cs_new) && cs == cs_new) {
   dev_err(dev, "chipselect %u already in use\n", cs_new);
   return -EBUSY;
  }
 }
 return 0;
}

static int spi_dev_check(struct device *dev, void *data)
{
 struct spi_device *spi = to_spi_device(dev);
 struct spi_device *new_spi = data;
 int status, idx;

 if (spi->controller == new_spi->controller) {
  for (idx = 0; idx < SPI_CS_CNT_MAX; idx++) {
   status = spi_dev_check_cs(dev, spi, idx, new_spi, 0);
   if (status)
    return status;
  }
 }
 return 0;
}

static void spi_cleanup(struct spi_device *spi)
{
 if (spi->controller->cleanup)
  spi->controller->cleanup(spi);
}

static int __spi_add_device(struct spi_device *spi)
{
 struct spi_controller *ctlr = spi->controller;
 struct device *dev = ctlr->dev.parent;
 int status, idx;
 u8 cs;

 for (idx = 0; idx < SPI_CS_CNT_MAX; idx++) {
  /* Chipselects are numbered 0..max; validate. */
  cs = spi_get_chipselect(spi, idx);
  if (is_valid_cs(cs) && cs >= ctlr->num_chipselect) {
   dev_err(dev, "cs%d >= max %d\n", spi_get_chipselect(spi, idx),
    ctlr->num_chipselect);
   return -EINVAL;
  }
 }

 /*
 * Make sure that multiple logical CS doesn't map to the same physical CS.
 * For example, spi->chip_select[0] != spi->chip_select[1] and so on.
 */

 if (!spi_controller_is_target(ctlr)) {
  for (idx = 0; idx < SPI_CS_CNT_MAX; idx++) {
   status = spi_dev_check_cs(dev, spi, idx, spi, idx + 1);
   if (status)
    return status;
  }
 }

 /* Set the bus ID string */
 spi_dev_set_name(spi);

 /*
 * We need to make sure there's no other device with this
 * chipselect **BEFORE** we call setup(), else we'll trash
 * its configuration.
 */

 status = bus_for_each_dev(&spi_bus_type, NULL, spi, spi_dev_check);
 if (status)
  return status;

 /* Controller may unregister concurrently */
 if (IS_ENABLED(CONFIG_SPI_DYNAMIC) &&
     !device_is_registered(&ctlr->dev)) {
  return -ENODEV;
 }

 if (ctlr->cs_gpiods) {
  u8 cs;

  for (idx = 0; idx < SPI_CS_CNT_MAX; idx++) {
   cs = spi_get_chipselect(spi, idx);
   if (is_valid_cs(cs))
    spi_set_csgpiod(spi, idx, ctlr->cs_gpiods[cs]);
  }
 }

 /*
 * Drivers may modify this initial i/o setup, but will
 * normally rely on the device being setup.  Devices
 * using SPI_CS_HIGH can't coexist well otherwise...
 */

 status = spi_setup(spi);
 if (status < 0) {
  dev_err(dev, "can't setup %s, status %d\n",
    dev_name(&spi->dev), status);
  return status;
 }

 /* Device may be bound to an active driver when this returns */
 status = device_add(&spi->dev);
 if (status < 0) {
  dev_err(dev, "can't add %s, status %d\n",
    dev_name(&spi->dev), status);
  spi_cleanup(spi);
 } else {
  dev_dbg(dev, "registered child %s\n", dev_name(&spi->dev));
 }

 return status;
}

/**
 * spi_add_device - Add spi_device allocated with spi_alloc_device
 * @spi: spi_device to register
 *
 * Companion function to spi_alloc_device.  Devices allocated with
 * spi_alloc_device can be added onto the SPI bus with this function.
 *
 * Return: 0 on success; negative errno on failure
 */

int spi_add_device(struct spi_device *spi)
{
 struct spi_controller *ctlr = spi->controller;
 int status;

 /* Set the bus ID string */
 spi_dev_set_name(spi);

 mutex_lock(&ctlr->add_lock);
 status = __spi_add_device(spi);
 mutex_unlock(&ctlr->add_lock);
 return status;
}
EXPORT_SYMBOL_GPL(spi_add_device);

static void spi_set_all_cs_unused(struct spi_device *spi)
{
 u8 idx;

 for (idx = 0; idx < SPI_CS_CNT_MAX; idx++)
  spi_set_chipselect(spi, idx, SPI_INVALID_CS);
}

/**
 * spi_new_device - instantiate one new SPI device
 * @ctlr: Controller to which device is connected
 * @chip: Describes the SPI device
 * Context: can sleep
 *
 * On typical mainboards, this is purely internal; and it's not needed
 * after board init creates the hard-wired devices.  Some development
 * platforms may not be able to use spi_register_board_info though, and
 * this is exported so that for example a USB or parport based adapter
 * driver could add devices (which it would learn about out-of-band).
 *
 * Return: the new device, or NULL.
 */

struct spi_device *spi_new_device(struct spi_controller *ctlr,
      struct spi_board_info *chip)
{
 struct spi_device *proxy;
 int   status;

 /*
 * NOTE:  caller did any chip->bus_num checks necessary.
 *
 * Also, unless we change the return value convention to use
 * error-or-pointer (not NULL-or-pointer), troubleshootability
 * suggests syslogged diagnostics are best here (ugh).
 */


 proxy = spi_alloc_device(ctlr);
 if (!proxy)
  return NULL;

 WARN_ON(strlen(chip->modalias) >= sizeof(proxy->modalias));

 /* Use provided chip-select for proxy device */
 spi_set_all_cs_unused(proxy);
 spi_set_chipselect(proxy, 0, chip->chip_select);

 proxy->max_speed_hz = chip->max_speed_hz;
 proxy->mode = chip->mode;
 proxy->irq = chip->irq;
 strscpy(proxy->modalias, chip->modalias, sizeof(proxy->modalias));
 proxy->dev.platform_data = (void *) chip->platform_data;
 proxy->controller_data = chip->controller_data;
 proxy->controller_state = NULL;
 /*
 * By default spi->chip_select[0] will hold the physical CS number,
 * so set bit 0 in spi->cs_index_mask.
 */

 proxy->cs_index_mask = BIT(0);

 if (chip->swnode) {
  status = device_add_software_node(&proxy->dev, chip->swnode);
  if (status) {
   dev_err(&ctlr->dev, "failed to add software node to '%s': %d\n",
    chip->modalias, status);
   goto err_dev_put;
  }
 }

 status = spi_add_device(proxy);
 if (status < 0)
  goto err_dev_put;

 return proxy;

err_dev_put:
 device_remove_software_node(&proxy->dev);
 spi_dev_put(proxy);
 return NULL;
}
EXPORT_SYMBOL_GPL(spi_new_device);

/**
 * spi_unregister_device - unregister a single SPI device
 * @spi: spi_device to unregister
 *
 * Start making the passed SPI device vanish. Normally this would be handled
 * by spi_unregister_controller().
 */

void spi_unregister_device(struct spi_device *spi)
{
 struct fwnode_handle *fwnode;

 if (!spi)
  return;

 fwnode = dev_fwnode(&spi->dev);
 if (is_of_node(fwnode)) {
  of_node_clear_flag(to_of_node(fwnode), OF_POPULATED);
  of_node_put(to_of_node(fwnode));
 } else if (is_acpi_device_node(fwnode)) {
  acpi_device_clear_enumerated(to_acpi_device_node(fwnode));
 }
 device_remove_software_node(&spi->dev);
 device_del(&spi->dev);
 spi_cleanup(spi);
 put_device(&spi->dev);
}
EXPORT_SYMBOL_GPL(spi_unregister_device);

static void spi_match_controller_to_boardinfo(struct spi_controller *ctlr,
           struct spi_board_info *bi)
{
 struct spi_device *dev;

 if (ctlr->bus_num != bi->bus_num)
  return;

 dev = spi_new_device(ctlr, bi);
 if (!dev)
  dev_err(ctlr->dev.parent, "can't create new device for %s\n",
   bi->modalias);
}

/**
 * spi_register_board_info - register SPI devices for a given board
 * @info: array of chip descriptors
 * @n: how many descriptors are provided
 * Context: can sleep
 *
 * Board-specific early init code calls this (probably during arch_initcall)
 * with segments of the SPI device table.  Any device nodes are created later,
 * after the relevant parent SPI controller (bus_num) is defined.  We keep
 * this table of devices forever, so that reloading a controller driver will
 * not make Linux forget about these hard-wired devices.
 *
 * Other code can also call this, e.g. a particular add-on board might provide
 * SPI devices through its expansion connector, so code initializing that board
 * would naturally declare its SPI devices.
 *
 * The board info passed can safely be __initdata ... but be careful of
 * any embedded pointers (platform_data, etc), they're copied as-is.
 *
 * Return: zero on success, else a negative error code.
 */

int spi_register_board_info(struct spi_board_info const *info, unsigned n)
{
 struct boardinfo *bi;
 int i;

 if (!n)
  return 0;

 bi = kcalloc(n, sizeof(*bi), GFP_KERNEL);
 if (!bi)
  return -ENOMEM;

 for (i = 0; i < n; i++, bi++, info++) {
  struct spi_controller *ctlr;

  memcpy(&bi->board_info, info, sizeof(*info));

  mutex_lock(&board_lock);
  list_add_tail(&bi->list, &board_list);
  list_for_each_entry(ctlr, &spi_controller_list, list)
   spi_match_controller_to_boardinfo(ctlr,
         &bi->board_info);
  mutex_unlock(&board_lock);
 }

 return 0;
}

/*-------------------------------------------------------------------------*/

/* Core methods for SPI resource management */

/**
 * spi_res_alloc - allocate a spi resource that is life-cycle managed
 *                 during the processing of a spi_message while using
 *                 spi_transfer_one
 * @spi:     the SPI device for which we allocate memory
 * @release: the release code to execute for this resource
 * @size:    size to alloc and return
 * @gfp:     GFP allocation flags
 *
 * Return: the pointer to the allocated data
 *
 * This may get enhanced in the future to allocate from a memory pool
 * of the @spi_device or @spi_controller to avoid repeated allocations.
 */

static void *spi_res_alloc(struct spi_device *spi, spi_res_release_t release,
      size_t size, gfp_t gfp)
{
 struct spi_res *sres;

 sres = kzalloc(sizeof(*sres) + size, gfp);
 if (!sres)
  return NULL;

 INIT_LIST_HEAD(&sres->entry);
 sres->release = release;

 return sres->data;
}

/**
 * spi_res_free - free an SPI resource
 * @res: pointer to the custom data of a resource
 */

static void spi_res_free(void *res)
{
 struct spi_res *sres = container_of(res, struct spi_res, data);

 WARN_ON(!list_empty(&sres->entry));
 kfree(sres);
}

/**
 * spi_res_add - add a spi_res to the spi_message
 * @message: the SPI message
 * @res:     the spi_resource
 */

static void spi_res_add(struct spi_message *message, void *res)
{
 struct spi_res *sres = container_of(res, struct spi_res, data);

 WARN_ON(!list_empty(&sres->entry));
 list_add_tail(&sres->entry, &message->resources);
}

/**
 * spi_res_release - release all SPI resources for this message
 * @ctlr:  the @spi_controller
 * @message: the @spi_message
 */

static void spi_res_release(struct spi_controller *ctlr, struct spi_message *message)
{
 struct spi_res *res, *tmp;

 list_for_each_entry_safe_reverse(res, tmp, &message->resources, entry) {
  if (res->release)
   res->release(ctlr, message, res->data);

  list_del(&res->entry);

  kfree(res);
 }
}

/*-------------------------------------------------------------------------*/
#define spi_for_each_valid_cs(spi, idx)    \
 for (idx = 0; idx < SPI_CS_CNT_MAX; idx++)  \
  if (!(spi->cs_index_mask & BIT(idx))) {} else

static inline bool spi_is_last_cs(struct spi_device *spi)
{
 u8 idx;
 bool last = false;

 spi_for_each_valid_cs(spi, idx) {
  if (spi->controller->last_cs[idx] == spi_get_chipselect(spi, idx))
   last = true;
 }
 return last;
}

static void spi_toggle_csgpiod(struct spi_device *spi, u8 idx, bool enable, bool activate)
{
 /*
 * Historically ACPI has no means of the GPIO polarity and
 * thus the SPISerialBus() resource defines it on the per-chip
 * basis. In order to avoid a chain of negations, the GPIO
 * polarity is considered being Active High. Even for the cases
 * when _DSD() is involved (in the updated versions of ACPI)
 * the GPIO CS polarity must be defined Active High to avoid
 * ambiguity. That's why we use enable, that takes SPI_CS_HIGH
 * into account.
 */

 if (is_acpi_device_node(dev_fwnode(&spi->dev)))
  gpiod_set_value_cansleep(spi_get_csgpiod(spi, idx), !enable);
 else
  /* Polarity handled by GPIO library */
  gpiod_set_value_cansleep(spi_get_csgpiod(spi, idx), activate);

 if (activate)
  spi_delay_exec(&spi->cs_setup, NULL);
 else
  spi_delay_exec(&spi->cs_inactive, NULL);
}

static void spi_set_cs(struct spi_device *spi, bool enable, bool force)
{
 bool activate = enable;
 u8 idx;

 /*
 * Avoid calling into the driver (or doing delays) if the chip select
 * isn't actually changing from the last time this was called.
 */

 if (!force && (enable == spi_is_last_cs(spi)) &&
     (spi->controller->last_cs_index_mask == spi->cs_index_mask) &&
     (spi->controller->last_cs_mode_high == (spi->mode & SPI_CS_HIGH)))
  return;

 trace_spi_set_cs(spi, activate);

 spi->controller->last_cs_index_mask = spi->cs_index_mask;
 for (idx = 0; idx < SPI_CS_CNT_MAX; idx++)
  spi->controller->last_cs[idx] = enable ? spi_get_chipselect(spi, 0) : SPI_INVALID_CS;

 spi->controller->last_cs_mode_high = spi->mode & SPI_CS_HIGH;
 if (spi->controller->last_cs_mode_high)
  enable = !enable;

 /*
 * Handle chip select delays for GPIO based CS or controllers without
 * programmable chip select timing.
 */

 if ((spi_is_csgpiod(spi) || !spi->controller->set_cs_timing) && !activate)
  spi_delay_exec(&spi->cs_hold, NULL);

 if (spi_is_csgpiod(spi)) {
  if (!(spi->mode & SPI_NO_CS)) {
   spi_for_each_valid_cs(spi, idx) {
    if (spi_get_csgpiod(spi, idx))
     spi_toggle_csgpiod(spi, idx, enable, activate);
   }
  }
  /* Some SPI controllers need both GPIO CS & ->set_cs() */
  if ((spi->controller->flags & SPI_CONTROLLER_GPIO_SS) &&
      spi->controller->set_cs)
   spi->controller->set_cs(spi, !enable);
 } else if (spi->controller->set_cs) {
  spi->controller->set_cs(spi, !enable);
 }

 if (spi_is_csgpiod(spi) || !spi->controller->set_cs_timing) {
  if (activate)
   spi_delay_exec(&spi->cs_setup, NULL);
  else
   spi_delay_exec(&spi->cs_inactive, NULL);
 }
}

#ifdef CONFIG_HAS_DMA
static int spi_map_buf_attrs(struct spi_controller *ctlr, struct device *dev,
        struct sg_table *sgt, void *buf, size_t len,
        enum dma_data_direction dir, unsigned long attrs)
{
 const bool vmalloced_buf = is_vmalloc_addr(buf);
 unsigned int max_seg_size = dma_get_max_seg_size(dev);
#ifdef CONFIG_HIGHMEM
 const bool kmap_buf = ((unsigned long)buf >= PKMAP_BASE &&
    (unsigned long)buf < (PKMAP_BASE +
     (LAST_PKMAP * PAGE_SIZE)));
#else
 const bool kmap_buf = false;
#endif
 int desc_len;
 int sgs;
 struct page *vm_page;
 struct scatterlist *sg;
 void *sg_buf;
 size_t min;
 int i, ret;

 if (vmalloced_buf || kmap_buf) {
  desc_len = min_t(unsigned long, max_seg_size, PAGE_SIZE);
  sgs = DIV_ROUND_UP(len + offset_in_page(buf), desc_len);
 } else if (virt_addr_valid(buf)) {
  desc_len = min_t(size_t, max_seg_size, ctlr->max_dma_len);
  sgs = DIV_ROUND_UP(len, desc_len);
 } else {
  return -EINVAL;
 }

 ret = sg_alloc_table(sgt, sgs, GFP_KERNEL);
 if (ret != 0)
  return ret;

 sg = &sgt->sgl[0];
 for (i = 0; i < sgs; i++) {

  if (vmalloced_buf || kmap_buf) {
   /*
 * Next scatterlist entry size is the minimum between
 * the desc_len and the remaining buffer length that
 * fits in a page.
 */

   min = min_t(size_t, desc_len,
        min_t(size_t, len,
       PAGE_SIZE - offset_in_page(buf)));
   if (vmalloced_buf)
    vm_page = vmalloc_to_page(buf);
   else
    vm_page = kmap_to_page(buf);
   if (!vm_page) {
    sg_free_table(sgt);
    return -ENOMEM;
   }
   sg_set_page(sg, vm_page,
        min, offset_in_page(buf));
  } else {
   min = min_t(size_t, len, desc_len);
   sg_buf = buf;
   sg_set_buf(sg, sg_buf, min);
  }

  buf += min;
  len -= min;
  sg = sg_next(sg);
 }

 ret = dma_map_sgtable(dev, sgt, dir, attrs);
 if (ret < 0) {
  sg_free_table(sgt);
  return ret;
 }

 return 0;
}

int spi_map_buf(struct spi_controller *ctlr, struct device *dev,
  struct sg_table *sgt, void *buf, size_t len,
  enum dma_data_direction dir)
{
 return spi_map_buf_attrs(ctlr, dev, sgt, buf, len, dir, 0);
}

static void spi_unmap_buf_attrs(struct spi_controller *ctlr,
    struct device *dev, struct sg_table *sgt,
    enum dma_data_direction dir,
    unsigned long attrs)
{
 dma_unmap_sgtable(dev, sgt, dir, attrs);
 sg_free_table(sgt);
 sgt->orig_nents = 0;
 sgt->nents = 0;
}

void spi_unmap_buf(struct spi_controller *ctlr, struct device *dev,
     struct sg_table *sgt, enum dma_data_direction dir)
{
 spi_unmap_buf_attrs(ctlr, dev, sgt, dir, 0);
}

static int __spi_map_msg(struct spi_controller *ctlr, struct spi_message *msg)
{
 struct device *tx_dev, *rx_dev;
 struct spi_transfer *xfer;
 int ret;

 if (!ctlr->can_dma)
  return 0;

 if (ctlr->dma_tx)
  tx_dev = ctlr->dma_tx->device->dev;
 else if (ctlr->dma_map_dev)
  tx_dev = ctlr->dma_map_dev;
 else
  tx_dev = ctlr->dev.parent;

 if (ctlr->dma_rx)
  rx_dev = ctlr->dma_rx->device->dev;
 else if (ctlr->dma_map_dev)
  rx_dev = ctlr->dma_map_dev;
 else
  rx_dev = ctlr->dev.parent;

 ret = -ENOMSG;
 list_for_each_entry(xfer, &msg->transfers, transfer_list) {
  /* The sync is done before each transfer. */
  unsigned long attrs = DMA_ATTR_SKIP_CPU_SYNC;

  if (!ctlr->can_dma(ctlr, msg->spi, xfer))
   continue;

  if (xfer->tx_buf != NULL) {
   ret = spi_map_buf_attrs(ctlr, tx_dev, &xfer->tx_sg,
      (void *)xfer->tx_buf,
      xfer->len, DMA_TO_DEVICE,
      attrs);
   if (ret != 0)
    return ret;

   xfer->tx_sg_mapped = true;
  }

  if (xfer->rx_buf != NULL) {
   ret = spi_map_buf_attrs(ctlr, rx_dev, &xfer->rx_sg,
      xfer->rx_buf, xfer->len,
      DMA_FROM_DEVICE, attrs);
   if (ret != 0) {
    spi_unmap_buf_attrs(ctlr, tx_dev,
      &xfer->tx_sg, DMA_TO_DEVICE,
      attrs);

    return ret;
   }

   xfer->rx_sg_mapped = true;
  }
 }
 /* No transfer has been mapped, bail out with success */
 if (ret)
  return 0;

 ctlr->cur_rx_dma_dev = rx_dev;
 ctlr->cur_tx_dma_dev = tx_dev;

 return 0;
}

static int __spi_unmap_msg(struct spi_controller *ctlr, struct spi_message *msg)
{
 struct device *rx_dev = ctlr->cur_rx_dma_dev;
 struct device *tx_dev = ctlr->cur_tx_dma_dev;
 struct spi_transfer *xfer;

 list_for_each_entry(xfer, &msg->transfers, transfer_list) {
  /* The sync has already been done after each transfer. */
  unsigned long attrs = DMA_ATTR_SKIP_CPU_SYNC;

  if (xfer->rx_sg_mapped)
   spi_unmap_buf_attrs(ctlr, rx_dev, &xfer->rx_sg,
         DMA_FROM_DEVICE, attrs);
  xfer->rx_sg_mapped = false;

  if (xfer->tx_sg_mapped)
   spi_unmap_buf_attrs(ctlr, tx_dev, &xfer->tx_sg,
         DMA_TO_DEVICE, attrs);
  xfer->tx_sg_mapped = false;
 }

 return 0;
}

static void spi_dma_sync_for_device(struct spi_controller *ctlr,
        struct spi_transfer *xfer)
{
 struct device *rx_dev = ctlr->cur_rx_dma_dev;
 struct device *tx_dev = ctlr->cur_tx_dma_dev;

 if (xfer->tx_sg_mapped)
  dma_sync_sgtable_for_device(tx_dev, &xfer->tx_sg, DMA_TO_DEVICE);
 if (xfer->rx_sg_mapped)
  dma_sync_sgtable_for_device(rx_dev, &xfer->rx_sg, DMA_FROM_DEVICE);
}

static void spi_dma_sync_for_cpu(struct spi_controller *ctlr,
     struct spi_transfer *xfer)
{
 struct device *rx_dev = ctlr->cur_rx_dma_dev;
 struct device *tx_dev = ctlr->cur_tx_dma_dev;

 if (xfer->rx_sg_mapped)
  dma_sync_sgtable_for_cpu(rx_dev, &xfer->rx_sg, DMA_FROM_DEVICE);
 if (xfer->tx_sg_mapped)
  dma_sync_sgtable_for_cpu(tx_dev, &xfer->tx_sg, DMA_TO_DEVICE);
}
#else /* !CONFIG_HAS_DMA */
static inline int __spi_map_msg(struct spi_controller *ctlr,
    struct spi_message *msg)
{
 return 0;
}

static inline int __spi_unmap_msg(struct spi_controller *ctlr,
      struct spi_message *msg)
{
 return 0;
}

static void spi_dma_sync_for_device(struct spi_controller *ctrl,
        struct spi_transfer *xfer)
{
}

static void spi_dma_sync_for_cpu(struct spi_controller *ctrl,
     struct spi_transfer *xfer)
{
}
#endif /* !CONFIG_HAS_DMA */

static inline int spi_unmap_msg(struct spi_controller *ctlr,
    struct spi_message *msg)
{
 struct spi_transfer *xfer;

 list_for_each_entry(xfer, &msg->transfers, transfer_list) {
  /*
 * Restore the original value of tx_buf or rx_buf if they are
 * NULL.
 */

  if (xfer->tx_buf == ctlr->dummy_tx)
   xfer->tx_buf = NULL;
  if (xfer->rx_buf == ctlr->dummy_rx)
   xfer->rx_buf = NULL;
 }

 return __spi_unmap_msg(ctlr, msg);
}

static int spi_map_msg(struct spi_controller *ctlr, struct spi_message *msg)
{
 struct spi_transfer *xfer;
 void *tmp;
 unsigned int max_tx, max_rx;

 if ((ctlr->flags & (SPI_CONTROLLER_MUST_RX | SPI_CONTROLLER_MUST_TX))
  && !(msg->spi->mode & SPI_3WIRE)) {
  max_tx = 0;
  max_rx = 0;

  list_for_each_entry(xfer, &msg->transfers, transfer_list) {
   if ((ctlr->flags & SPI_CONTROLLER_MUST_TX) &&
       !xfer->tx_buf)
    max_tx = max(xfer->len, max_tx);
   if ((ctlr->flags & SPI_CONTROLLER_MUST_RX) &&
       !xfer->rx_buf)
    max_rx = max(xfer->len, max_rx);
  }

  if (max_tx) {
   tmp = krealloc(ctlr->dummy_tx, max_tx,
           GFP_KERNEL | GFP_DMA | __GFP_ZERO);
   if (!tmp)
    return -ENOMEM;
   ctlr->dummy_tx = tmp;
  }

  if (max_rx) {
   tmp = krealloc(ctlr->dummy_rx, max_rx,
           GFP_KERNEL | GFP_DMA);
   if (!tmp)
    return -ENOMEM;
   ctlr->dummy_rx = tmp;
  }

  if (max_tx || max_rx) {
   list_for_each_entry(xfer, &msg->transfers,
         transfer_list) {
    if (!xfer->len)
     continue;
    if (!xfer->tx_buf)
     xfer->tx_buf = ctlr->dummy_tx;
    if (!xfer->rx_buf)
     xfer->rx_buf = ctlr->dummy_rx;
   }
  }
 }

 return __spi_map_msg(ctlr, msg);
}

static int spi_transfer_wait(struct spi_controller *ctlr,
        struct spi_message *msg,
        struct spi_transfer *xfer)
{
 struct spi_statistics __percpu *statm = ctlr->pcpu_statistics;
 struct spi_statistics __percpu *stats = msg->spi->pcpu_statistics;
 u32 speed_hz = xfer->speed_hz;
 unsigned long long ms;

 if (spi_controller_is_target(ctlr)) {
  if (wait_for_completion_interruptible(&ctlr->xfer_completion)) {
   dev_dbg(&msg->spi->dev, "SPI transfer interrupted\n");
   return -EINTR;
  }
 } else {
  if (!speed_hz)
   speed_hz = 100000;

  /*
 * For each byte we wait for 8 cycles of the SPI clock.
 * Since speed is defined in Hz and we want milliseconds,
 * use respective multiplier, but before the division,
 * otherwise we may get 0 for short transfers.
 */

  ms = 8LL * MSEC_PER_SEC * xfer->len;
  do_div(ms, speed_hz);

  /*
 * Increase it twice and add 200 ms tolerance, use
 * predefined maximum in case of overflow.
 */

  ms += ms + 200;
  if (ms > UINT_MAX)
   ms = UINT_MAX;

  ms = wait_for_completion_timeout(&ctlr->xfer_completion,
       msecs_to_jiffies(ms));

  if (ms == 0) {
   SPI_STATISTICS_INCREMENT_FIELD(statm, timedout);
   SPI_STATISTICS_INCREMENT_FIELD(stats, timedout);
   dev_err(&msg->spi->dev,
    "SPI transfer timed out\n");
   return -ETIMEDOUT;
  }

  if (xfer->error & SPI_TRANS_FAIL_IO)
   return -EIO;
 }

 return 0;
}

static void _spi_transfer_delay_ns(u32 ns)
{
 if (!ns)
  return;
 if (ns <= NSEC_PER_USEC) {
  ndelay(ns);
 } else {
  u32 us = DIV_ROUND_UP(ns, NSEC_PER_USEC);

  fsleep(us);
 }
}

int spi_delay_to_ns(struct spi_delay *_delay, struct spi_transfer *xfer)
{
 u32 delay = _delay->value;
 u32 unit = _delay->unit;
 u32 hz;

 if (!delay)
  return 0;

 switch (unit) {
 case SPI_DELAY_UNIT_USECS:
  delay *= NSEC_PER_USEC;
  break;
 case SPI_DELAY_UNIT_NSECS:
  /* Nothing to do here */
  break;
 case SPI_DELAY_UNIT_SCK:
  /* Clock cycles need to be obtained from spi_transfer */
  if (!xfer)
   return -EINVAL;
  /*
 * If there is unknown effective speed, approximate it
 * by underestimating with half of the requested Hz.
 */

  hz = xfer->effective_speed_hz ?: xfer->speed_hz / 2;
  if (!hz)
   return -EINVAL;

  /* Convert delay to nanoseconds */
  delay *= DIV_ROUND_UP(NSEC_PER_SEC, hz);
  break;
 default:
  return -EINVAL;
 }

 return delay;
}
EXPORT_SYMBOL_GPL(spi_delay_to_ns);

int spi_delay_exec(struct spi_delay *_delay, struct spi_transfer *xfer)
{
 int delay;

 might_sleep();

 if (!_delay)
  return -EINVAL;

 delay = spi_delay_to_ns(_delay, xfer);
 if (delay < 0)
  return delay;

 _spi_transfer_delay_ns(delay);

 return 0;
}
EXPORT_SYMBOL_GPL(spi_delay_exec);

static void _spi_transfer_cs_change_delay(struct spi_message *msg,
       struct spi_transfer *xfer)
{
 u32 default_delay_ns = 10 * NSEC_PER_USEC;
 u32 delay = xfer->cs_change_delay.value;
 u32 unit = xfer->cs_change_delay.unit;
 int ret;

 /* Return early on "fast" mode - for everything but USECS */
 if (!delay) {
  if (unit == SPI_DELAY_UNIT_USECS)
   _spi_transfer_delay_ns(default_delay_ns);
  return;
 }

 ret = spi_delay_exec(&xfer->cs_change_delay, xfer);
 if (ret) {
  dev_err_once(&msg->spi->dev,
        "Use of unsupported delay unit %i, using default of %luus\n",
        unit, default_delay_ns / NSEC_PER_USEC);
  _spi_transfer_delay_ns(default_delay_ns);
 }
}

void spi_transfer_cs_change_delay_exec(struct spi_message *msg,
        struct spi_transfer *xfer)
{
 _spi_transfer_cs_change_delay(msg, xfer);
}
EXPORT_SYMBOL_GPL(spi_transfer_cs_change_delay_exec);

/*
 * spi_transfer_one_message - Default implementation of transfer_one_message()
 *
 * This is a standard implementation of transfer_one_message() for
 * drivers which implement a transfer_one() operation.  It provides
 * standard handling of delays and chip select management.
 */

static int spi_transfer_one_message(struct spi_controller *ctlr,
        struct spi_message *msg)
{
 struct spi_transfer *xfer;
 bool keep_cs = false;
 int ret = 0;
 struct spi_statistics __percpu *statm = ctlr->pcpu_statistics;
 struct spi_statistics __percpu *stats = msg->spi->pcpu_statistics;

 xfer = list_first_entry(&msg->transfers, struct spi_transfer, transfer_list);
 spi_set_cs(msg->spi, !xfer->cs_off, false);

 SPI_STATISTICS_INCREMENT_FIELD(statm, messages);
 SPI_STATISTICS_INCREMENT_FIELD(stats, messages);

 list_for_each_entry(xfer, &msg->transfers, transfer_list) {
  trace_spi_transfer_start(msg, xfer);

  spi_statistics_add_transfer_stats(statm, xfer, msg);
  spi_statistics_add_transfer_stats(stats, xfer, msg);

  if (!ctlr->ptp_sts_supported) {
   xfer->ptp_sts_word_pre = 0;
   ptp_read_system_prets(xfer->ptp_sts);
  }

  if ((xfer->tx_buf || xfer->rx_buf) && xfer->len) {
   reinit_completion(&ctlr->xfer_completion);

fallback_pio:
   spi_dma_sync_for_device(ctlr, xfer);
   ret = ctlr->transfer_one(ctlr, msg->spi, xfer);
   if (ret < 0) {
    spi_dma_sync_for_cpu(ctlr, xfer);

    if ((xfer->tx_sg_mapped || xfer->rx_sg_mapped) &&
        (xfer->error & SPI_TRANS_FAIL_NO_START)) {
     __spi_unmap_msg(ctlr, msg);
     ctlr->fallback = true;
     xfer->error &= ~SPI_TRANS_FAIL_NO_START;
     goto fallback_pio;
    }

    SPI_STATISTICS_INCREMENT_FIELD(statm,
              errors);
    SPI_STATISTICS_INCREMENT_FIELD(stats,
              errors);
    dev_err(&msg->spi->dev,
     "SPI transfer failed: %d\n", ret);
    goto out;
   }

   if (ret > 0) {
    ret = spi_transfer_wait(ctlr, msg, xfer);
    if (ret < 0)
     msg->status = ret;
   }

   spi_dma_sync_for_cpu(ctlr, xfer);
  } else {
   if (xfer->len)
    dev_err(&msg->spi->dev,
     "Bufferless transfer has length %u\n",
     xfer->len);
  }

  if (!ctlr->ptp_sts_supported) {
   ptp_read_system_postts(xfer->ptp_sts);
   xfer->ptp_sts_word_post = xfer->len;
  }

  trace_spi_transfer_stop(msg, xfer);

  if (msg->status != -EINPROGRESS)
   goto out;

  spi_transfer_delay_exec(xfer);

  if (xfer->cs_change) {
   if (list_is_last(&xfer->transfer_list,
      &msg->transfers)) {
    keep_cs = true;
   } else {
    if (!xfer->cs_off)
     spi_set_cs(msg->spi, falsefalse);
    _spi_transfer_cs_change_delay(msg, xfer);
    if (!list_next_entry(xfer, transfer_list)->cs_off)
     spi_set_cs(msg->spi, truefalse);
   }
  } else if (!list_is_last(&xfer->transfer_list, &msg->transfers) &&
      xfer->cs_off != list_next_entry(xfer, transfer_list)->cs_off) {
   spi_set_cs(msg->spi, xfer->cs_off, false);
  }

  msg->actual_length += xfer->len;
 }

out:
 if (ret != 0 || !keep_cs)
  spi_set_cs(msg->spi, falsefalse);

 if (msg->status == -EINPROGRESS)
  msg->status = ret;

 if (msg->status && ctlr->handle_err)
  ctlr->handle_err(ctlr, msg);

 spi_finalize_current_message(ctlr);

 return ret;
}

/**
 * spi_finalize_current_transfer - report completion of a transfer
 * @ctlr: the controller reporting completion
 *
 * Called by SPI drivers using the core transfer_one_message()
 * implementation to notify it that the current interrupt driven
 * transfer has finished and the next one may be scheduled.
 */

void spi_finalize_current_transfer(struct spi_controller *ctlr)
{
 complete(&ctlr->xfer_completion);
}
EXPORT_SYMBOL_GPL(spi_finalize_current_transfer);

static void spi_idle_runtime_pm(struct spi_controller *ctlr)
{
 if (ctlr->auto_runtime_pm) {
  pm_runtime_put_autosuspend(ctlr->dev.parent);
 }
}

static int __spi_pump_transfer_message(struct spi_controller *ctlr,
  struct spi_message *msg, bool was_busy)
{
 struct spi_transfer *xfer;
 int ret;

 if (!was_busy && ctlr->auto_runtime_pm) {
  ret = pm_runtime_get_sync(ctlr->dev.parent);
  if (ret < 0) {
   pm_runtime_put_noidle(ctlr->dev.parent);
   dev_err(&ctlr->dev, "Failed to power device: %d\n",
    ret);

   msg->status = ret;
   spi_finalize_current_message(ctlr);

   return ret;
  }
 }

 if (!was_busy)
  trace_spi_controller_busy(ctlr);

 if (!was_busy && ctlr->prepare_transfer_hardware) {
  ret = ctlr->prepare_transfer_hardware(ctlr);
  if (ret) {
   dev_err(&ctlr->dev,
    "failed to prepare transfer hardware: %d\n",
    ret);

   if (ctlr->auto_runtime_pm)
    pm_runtime_put(ctlr->dev.parent);

   msg->status = ret;
   spi_finalize_current_message(ctlr);

   return ret;
  }
 }

 trace_spi_message_start(msg);

 if (ctlr->prepare_message) {
  ret = ctlr->prepare_message(ctlr, msg);
  if (ret) {
   dev_err(&ctlr->dev, "failed to prepare message: %d\n",
    ret);
   msg->status = ret;
   spi_finalize_current_message(ctlr);
   return ret;
  }
  msg->prepared = true;
 }

 ret = spi_map_msg(ctlr, msg);
 if (ret) {
  msg->status = ret;
  spi_finalize_current_message(ctlr);
  return ret;
 }

 if (!ctlr->ptp_sts_supported && !ctlr->transfer_one) {
  list_for_each_entry(xfer, &msg->transfers, transfer_list) {
   xfer->ptp_sts_word_pre = 0;
   ptp_read_system_prets(xfer->ptp_sts);
  }
 }

 /*
 * Drivers implementation of transfer_one_message() must arrange for
 * spi_finalize_current_message() to get called. Most drivers will do
 * this in the calling context, but some don't. For those cases, a
 * completion is used to guarantee that this function does not return
 * until spi_finalize_current_message() is done accessing
 * ctlr->cur_msg.
 * Use of the following two flags enable to opportunistically skip the
 * use of the completion since its use involves expensive spin locks.
 * In case of a race with the context that calls
 * spi_finalize_current_message() the completion will always be used,
 * due to strict ordering of these flags using barriers.
 */

 WRITE_ONCE(ctlr->cur_msg_incomplete, true);
 WRITE_ONCE(ctlr->cur_msg_need_completion, false);
 reinit_completion(&ctlr->cur_msg_completion);
 smp_wmb(); /* Make these available to spi_finalize_current_message() */

 ret = ctlr->transfer_one_message(ctlr, msg);
 if (ret) {
  dev_err(&ctlr->dev,
   "failed to transfer one message from queue\n");
  return ret;
 }

 WRITE_ONCE(ctlr->cur_msg_need_completion, true);
 smp_mb(); /* See spi_finalize_current_message()... */
 if (READ_ONCE(ctlr->cur_msg_incomplete))
  wait_for_completion(&ctlr->cur_msg_completion);

 return 0;
}

/**
 * __spi_pump_messages - function which processes SPI message queue
 * @ctlr: controller to process queue for
 * @in_kthread: true if we are in the context of the message pump thread
 *
 * This function checks if there is any SPI message in the queue that
 * needs processing and if so call out to the driver to initialize hardware
 * and transfer each message.
 *
 * Note that it is called both from the kthread itself and also from
 * inside spi_sync(); the queue extraction handling at the top of the
 * function should deal with this safely.
 */

static void __spi_pump_messages(struct spi_controller *ctlr, bool in_kthread)
{
 struct spi_message *msg;
 bool was_busy = false;
 unsigned long flags;
 int ret;

 /* Take the I/O mutex */
 mutex_lock(&ctlr->io_mutex);

 /* Lock queue */
 spin_lock_irqsave(&ctlr->queue_lock, flags);

 /* Make sure we are not already running a message */
 if (ctlr->cur_msg)
  goto out_unlock;

 /* Check if the queue is idle */
 if (list_empty(&ctlr->queue) || !ctlr->running) {
  if (!ctlr->busy)
   goto out_unlock;

  /* Defer any non-atomic teardown to the thread */
  if (!in_kthread) {
   if (!ctlr->dummy_rx && !ctlr->dummy_tx &&
       !ctlr->unprepare_transfer_hardware) {
    spi_idle_runtime_pm(ctlr);
    ctlr->busy = false;
    ctlr->queue_empty = true;
    trace_spi_controller_idle(ctlr);
   } else {
    kthread_queue_work(ctlr->kworker,
         &ctlr->pump_messages);
   }
   goto out_unlock;
  }

  ctlr->busy = false;
  spin_unlock_irqrestore(&ctlr->queue_lock, flags);

  kfree(ctlr->dummy_rx);
  ctlr->dummy_rx = NULL;
  kfree(ctlr->dummy_tx);
  ctlr->dummy_tx = NULL;
  if (ctlr->unprepare_transfer_hardware &&
      ctlr->unprepare_transfer_hardware(ctlr))
   dev_err(&ctlr->dev,
    "failed to unprepare transfer hardware\n");
  spi_idle_runtime_pm(ctlr);
  trace_spi_controller_idle(ctlr);

  spin_lock_irqsave(&ctlr->queue_lock, flags);
  ctlr->queue_empty = true;
  goto out_unlock;
 }

 /* Extract head of queue */
 msg = list_first_entry(&ctlr->queue, struct spi_message, queue);
 ctlr->cur_msg = msg;

 list_del_init(&msg->queue);
 if (ctlr->busy)
  was_busy = true;
 else
  ctlr->busy = true;
 spin_unlock_irqrestore(&ctlr->queue_lock, flags);

 ret = __spi_pump_transfer_message(ctlr, msg, was_busy);
 kthread_queue_work(ctlr->kworker, &ctlr->pump_messages);

 ctlr->cur_msg = NULL;
 ctlr->fallback = false;

 mutex_unlock(&ctlr->io_mutex);

 /* Prod the scheduler in case transfer_one() was busy waiting */
 if (!ret)
  cond_resched();
 return;

out_unlock:
 spin_unlock_irqrestore(&ctlr->queue_lock, flags);
 mutex_unlock(&ctlr->io_mutex);
}

/**
 * spi_pump_messages - kthread work function which processes spi message queue
 * @work: pointer to kthread work struct contained in the controller struct
 */

static void spi_pump_messages(struct kthread_work *work)
{
 struct spi_controller *ctlr =
  container_of(work, struct spi_controller, pump_messages);

 __spi_pump_messages(ctlr, true);
}

/**
 * spi_take_timestamp_pre - helper to collect the beginning of the TX timestamp
 * @ctlr: Pointer to the spi_controller structure of the driver
 * @xfer: Pointer to the transfer being timestamped
 * @progress: How many words (not bytes) have been transferred so far
 * @irqs_off: If true, will disable IRQs and preemption for the duration of the
 *       transfer, for less jitter in time measurement. Only compatible
 *       with PIO drivers. If true, must follow up with
 *       spi_take_timestamp_post or otherwise system will crash.
 *       WARNING: for fully predictable results, the CPU frequency must
 *       also be under control (governor).
 *
 * This is a helper for drivers to collect the beginning of the TX timestamp
 * for the requested byte from the SPI transfer. The frequency with which this
 * function must be called (once per word, once for the whole transfer, once
 * per batch of words etc) is arbitrary as long as the @tx buffer offset is
 * greater than or equal to the requested byte at the time of the call. The
 * timestamp is only taken once, at the first such call. It is assumed that
 * the driver advances its @tx buffer pointer monotonically.
 */

void spi_take_timestamp_pre(struct spi_controller *ctlr,
       struct spi_transfer *xfer,
       size_t progress, bool irqs_off)
{
 if (!xfer->ptp_sts)
  return;

 if (xfer->timestamped)
  return;

 if (progress > xfer->ptp_sts_word_pre)
  return;

 /* Capture the resolution of the timestamp */
 xfer->ptp_sts_word_pre = progress;

 if (irqs_off) {
  local_irq_save(ctlr->irq_flags);
  preempt_disable();
 }

 ptp_read_system_prets(xfer->ptp_sts);
}
EXPORT_SYMBOL_GPL(spi_take_timestamp_pre);

/**
 * spi_take_timestamp_post - helper to collect the end of the TX timestamp
 * @ctlr: Pointer to the spi_controller structure of the driver
 * @xfer: Pointer to the transfer being timestamped
 * @progress: How many words (not bytes) have been transferred so far
 * @irqs_off: If true, will re-enable IRQs and preemption for the local CPU.
 *
 * This is a helper for drivers to collect the end of the TX timestamp for
 * the requested byte from the SPI transfer. Can be called with an arbitrary
 * frequency: only the first call where @tx exceeds or is equal to the
 * requested word will be timestamped.
 */

void spi_take_timestamp_post(struct spi_controller *ctlr,
        struct spi_transfer *xfer,
        size_t progress, bool irqs_off)
{
 if (!xfer->ptp_sts)
  return;

 if (xfer->timestamped)
  return;

 if (progress < xfer->ptp_sts_word_post)
  return;

 ptp_read_system_postts(xfer->ptp_sts);

 if (irqs_off) {
  local_irq_restore(ctlr->irq_flags);
  preempt_enable();
 }

 /* Capture the resolution of the timestamp */
 xfer->ptp_sts_word_post = progress;

 xfer->timestamped = 1;
}
EXPORT_SYMBOL_GPL(spi_take_timestamp_post);

/**
 * spi_set_thread_rt - set the controller to pump at realtime priority
 * @ctlr: controller to boost priority of
 *
 * This can be called because the controller requested realtime priority
 * (by setting the ->rt value before calling spi_register_controller()) or
 * because a device on the bus said that its transfers needed realtime
 * priority.
 *
 * NOTE: at the moment if any device on a bus says it needs realtime then
 * the thread will be at realtime priority for all transfers on that
 * controller.  If this eventually becomes a problem we may see if we can
 * find a way to boost the priority only temporarily during relevant
 * transfers.
 */

static void spi_set_thread_rt(struct spi_controller *ctlr)
{
 dev_info(&ctlr->dev,
  "will run message pump with realtime priority\n");
 sched_set_fifo(ctlr->kworker->task);
}

static int spi_init_queue(struct spi_controller *ctlr)
{
 ctlr->running = false;
 ctlr->busy = false;
 ctlr->queue_empty = true;

 ctlr->kworker = kthread_run_worker(0, dev_name(&ctlr->dev));
 if (IS_ERR(ctlr->kworker)) {
  dev_err(&ctlr->dev, "failed to create message pump kworker\n");
  return PTR_ERR(ctlr->kworker);
 }

 kthread_init_work(&ctlr->pump_messages, spi_pump_messages);

 /*
 * Controller config will indicate if this controller should run the
 * message pump with high (realtime) priority to reduce the transfer
 * latency on the bus by minimising the delay between a transfer
 * request and the scheduling of the message pump thread. Without this
 * setting the message pump thread will remain at default priority.
 */

 if (ctlr->rt)
  spi_set_thread_rt(ctlr);

 return 0;
}

/**
 * spi_get_next_queued_message() - called by driver to check for queued
 * messages
 * @ctlr: the controller to check for queued messages
 *
 * If there are more messages in the queue, the next message is returned from
 * this call.
 *
 * Return: the next message in the queue, else NULL if the queue is empty.
 */

struct spi_message *spi_get_next_queued_message(struct spi_controller *ctlr)
{
 struct spi_message *next;
 unsigned long flags;

 /* Get a pointer to the next message, if any */
 spin_lock_irqsave(&ctlr->queue_lock, flags);
 next = list_first_entry_or_null(&ctlr->queue, struct spi_message,
     queue);
 spin_unlock_irqrestore(&ctlr->queue_lock, flags);

 return next;
}
EXPORT_SYMBOL_GPL(spi_get_next_queued_message);

/*
 * __spi_unoptimize_message - shared implementation of spi_unoptimize_message()
 *                            and spi_maybe_unoptimize_message()
 * @msg: the message to unoptimize
 *
 * Peripheral drivers should use spi_unoptimize_message() and callers inside
 * core should use spi_maybe_unoptimize_message() rather than calling this
 * function directly.
 *
 * It is not valid to call this on a message that is not currently optimized.
 */

static void __spi_unoptimize_message(struct spi_message *msg)
{
 struct spi_controller *ctlr = msg->spi->controller;

 if (ctlr->unoptimize_message)
  ctlr->unoptimize_message(msg);

 spi_res_release(ctlr, msg);

 msg->optimized = false;
 msg->opt_state = NULL;
}

/*
 * spi_maybe_unoptimize_message - unoptimize msg not managed by a peripheral
 * @msg: the message to unoptimize
 *
 * This function is used to unoptimize a message if and only if it was
 * optimized by the core (via spi_maybe_optimize_message()).
 */

static void spi_maybe_unoptimize_message(struct spi_message *msg)
{
 if (!msg->pre_optimized && msg->optimized &&
     !msg->spi->controller->defer_optimize_message)
  __spi_unoptimize_message(msg);
}

/**
 * spi_finalize_current_message() - the current message is complete
 * @ctlr: the controller to return the message to
 *
 * Called by the driver to notify the core that the message in the front of the
 * queue is complete and can be removed from the queue.
 */

void spi_finalize_current_message(struct spi_controller *ctlr)
{
 struct spi_transfer *xfer;
 struct spi_message *mesg;
 int ret;

 mesg = ctlr->cur_msg;

 if (!ctlr->ptp_sts_supported && !ctlr->transfer_one) {
  list_for_each_entry(xfer, &mesg->transfers, transfer_list) {
   ptp_read_system_postts(xfer->ptp_sts);
   xfer->ptp_sts_word_post = xfer->len;
  }
 }

 if (unlikely(ctlr->ptp_sts_supported))
  list_for_each_entry(xfer, &mesg->transfers, transfer_list)
   WARN_ON_ONCE(xfer->ptp_sts && !xfer->timestamped);

 spi_unmap_msg(ctlr, mesg);

 if (mesg->prepared && ctlr->unprepare_message) {
  ret = ctlr->unprepare_message(ctlr, mesg);
  if (ret) {
   dev_err(&ctlr->dev, "failed to unprepare message: %d\n",
    ret);
  }
 }

 mesg->prepared = false;

 spi_maybe_unoptimize_message(mesg);

 WRITE_ONCE(ctlr->cur_msg_incomplete, false);
 smp_mb(); /* See __spi_pump_transfer_message()... */
 if (READ_ONCE(ctlr->cur_msg_need_completion))
  complete(&ctlr->cur_msg_completion);

 trace_spi_message_done(mesg);

 mesg->state = NULL;
 if (mesg->complete)
  mesg->complete(mesg->context);
}
EXPORT_SYMBOL_GPL(spi_finalize_current_message);

static int spi_start_queue(struct spi_controller *ctlr)
{
 unsigned long flags;

 spin_lock_irqsave(&ctlr->queue_lock, flags);

 if (ctlr->running || ctlr->busy) {
  spin_unlock_irqrestore(&ctlr->queue_lock, flags);
  return -EBUSY;
 }

 ctlr->running = true;
 ctlr->cur_msg = NULL;
 spin_unlock_irqrestore(&ctlr->queue_lock, flags);

 kthread_queue_work(ctlr->kworker, &ctlr->pump_messages);

 return 0;
}

static int spi_stop_queue(struct spi_controller *ctlr)
{
 unsigned int limit = 500;
 unsigned long flags;

 /*
 * This is a bit lame, but is optimized for the common execution path.
 * A wait_queue on the ctlr->busy could be used, but then the common
 * execution path (pump_messages) would be required to call wake_up or
 * friends on every SPI message. Do this instead.
 */

 do {
  spin_lock_irqsave(&ctlr->queue_lock, flags);
  if (list_empty(&ctlr->queue) && !ctlr->busy) {
   ctlr->running = false;
   spin_unlock_irqrestore(&ctlr->queue_lock, flags);
   return 0;
  }
  spin_unlock_irqrestore(&ctlr->queue_lock, flags);
  usleep_range(10000, 11000);
 } while (--limit);

 return -EBUSY;
}

static int spi_destroy_queue(struct spi_controller *ctlr)
{
 int ret;

 ret = spi_stop_queue(ctlr);

 /*
 * kthread_flush_worker will block until all work is done.
 * If the reason that stop_queue timed out is that the work will never
 * finish, then it does no good to call flush/stop thread, so
 * return anyway.
 */

 if (ret) {
  dev_err(&ctlr->dev, "problem destroying queue\n");
  return ret;
 }

 kthread_destroy_worker(ctlr->kworker);

 return 0;
}

static int __spi_queued_transfer(struct spi_device *spi,
     struct spi_message *msg,
     bool need_pump)
{
 struct spi_controller *ctlr = spi->controller;
 unsigned long flags;

 spin_lock_irqsave(&ctlr->queue_lock, flags);

 if (!ctlr->running) {
  spin_unlock_irqrestore(&ctlr->queue_lock, flags);
  return -ESHUTDOWN;
 }
 msg->actual_length = 0;
 msg->status = -EINPROGRESS;

 list_add_tail(&msg->queue, &ctlr->queue);
 ctlr->queue_empty = false;
 if (!ctlr->busy && need_pump)
  kthread_queue_work(ctlr->kworker, &ctlr->pump_messages);

 spin_unlock_irqrestore(&ctlr->queue_lock, flags);
 return 0;
}

/**
 * spi_queued_transfer - transfer function for queued transfers
 * @spi: SPI device which is requesting transfer
 * @msg: SPI message which is to handled is queued to driver queue
 *
 * Return: zero on success, else a negative error code.
 */

static int spi_queued_transfer(struct spi_device *spi, struct spi_message *msg)
{
 return __spi_queued_transfer(spi, msg, true);
}

static int spi_controller_initialize_queue(struct spi_controller *ctlr)
{
 int ret;

 ctlr->transfer = spi_queued_transfer;
 if (!ctlr->transfer_one_message)
  ctlr->transfer_one_message = spi_transfer_one_message;

 /* Initialize and start queue */
 ret = spi_init_queue(ctlr);
 if (ret) {
  dev_err(&ctlr->dev, "problem initializing queue\n");
  goto err_init_queue;
 }
 ctlr->queued = true;
 ret = spi_start_queue(ctlr);
 if (ret) {
  dev_err(&ctlr->dev, "problem starting queue\n");
  goto err_start_queue;
 }

 return 0;

err_start_queue:
 spi_destroy_queue(ctlr);
err_init_queue:
 return ret;
}

/**
 * spi_flush_queue - Send all pending messages in the queue from the callers'
 *      context
 * @ctlr: controller to process queue for
 *
 * This should be used when one wants to ensure all pending messages have been
 * sent before doing something. Is used by the spi-mem code to make sure SPI
 * memory operations do not preempt regular SPI transfers that have been queued
 * before the spi-mem operation.
 */

void spi_flush_queue(struct spi_controller *ctlr)
{
 if (ctlr->transfer == spi_queued_transfer)
  __spi_pump_messages(ctlr, false);
}

/*-------------------------------------------------------------------------*/

#if defined(CONFIG_OF)
static void of_spi_parse_dt_cs_delay(struct device_node *nc,
         struct spi_delay *delay, const char *prop)
{
 u32 value;

 if (!of_property_read_u32(nc, prop, &value)) {
  if (value > U16_MAX) {
   delay->value = DIV_ROUND_UP(value, 1000);
   delay->unit = SPI_DELAY_UNIT_USECS;
  } else {
   delay->value = value;
   delay->unit = SPI_DELAY_UNIT_NSECS;
  }
 }
}

static int of_spi_parse_dt(struct spi_controller *ctlr, struct spi_device *spi,
      struct device_node *nc)
{
 u32 value, cs[SPI_CS_CNT_MAX];
 int rc, idx;

 /* Mode (clock phase/polarity/etc.) */
 if (of_property_read_bool(nc, "spi-cpha"))
  spi->mode |= SPI_CPHA;
 if (of_property_read_bool(nc, "spi-cpol"))
  spi->mode |= SPI_CPOL;
 if (of_property_read_bool(nc, "spi-3wire"))
  spi->mode |= SPI_3WIRE;
 if (of_property_read_bool(nc, "spi-lsb-first"))
  spi->mode |= SPI_LSB_FIRST;
 if (of_property_read_bool(nc, "spi-cs-high"))
  spi->mode |= SPI_CS_HIGH;

 /* Device DUAL/QUAD mode */
 if (!of_property_read_u32(nc, "spi-tx-bus-width", &value)) {
  switch (value) {
  case 0:
   spi->mode |= SPI_NO_TX;
   break;
  case 1:
   break;
  case 2:
   spi->mode |= SPI_TX_DUAL;
   break;
  case 4:
   spi->mode |= SPI_TX_QUAD;
   break;
  case 8:
   spi->mode |= SPI_TX_OCTAL;
   break;
  default:
   dev_warn(&ctlr->dev,
    "spi-tx-bus-width %d not supported\n",
    value);
   break;
  }
 }

 if (!of_property_read_u32(nc, "spi-rx-bus-width", &value)) {
  switch (value) {
  case 0:
   spi->mode |= SPI_NO_RX;
   break;
  case 1:
   break;
  case 2:
   spi->mode |= SPI_RX_DUAL;
   break;
  case 4:
   spi->mode |= SPI_RX_QUAD;
   break;
  case 8:
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=95 H=92 G=93

¤ Dauer der Verarbeitung: 0.13 Sekunden  (vorverarbeitet)  ¤

*Bot Zugriff






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.