Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/drivers/gpu/drm/nouveau/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 16 kB image not shown  

Quelle  nouveau_chan.c   Sprache: C

 
/*
 * Copyright 2012 Red Hat Inc.
 *
 * Permission is hereby granted, free of charge, to any person obtaining a
 * copy of this software and associated documentation files (the "Software"),
 * to deal in the Software without restriction, including without limitation
 * the rights to use, copy, modify, merge, publish, distribute, sublicense,
 * and/or sell copies of the Software, and to permit persons to whom the
 * Software is furnished to do so, subject to the following conditions:
 *
 * The above copyright notice and this permission notice shall be included in
 * all copies or substantial portions of the Software.
 *
 * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
 * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
 * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
 * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
 * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
 * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
 * OTHER DEALINGS IN THE SOFTWARE.
 *
 * Authors: Ben Skeggs
 */

#include <nvif/push006c.h>

#include <nvif/class.h>
#include <nvif/cl0002.h>
#include <nvif/if0020.h>

#include "nouveau_drv.h"
#include "nouveau_dma.h"
#include "nouveau_bo.h"
#include "nouveau_chan.h"
#include "nouveau_fence.h"
#include "nouveau_abi16.h"
#include "nouveau_vmm.h"
#include "nouveau_svm.h"

MODULE_PARM_DESC(vram_pushbuf, "Create DMA push buffers in VRAM");
int nouveau_vram_pushbuf;
module_param_named(vram_pushbuf, nouveau_vram_pushbuf, int, 0400);

void
nouveau_channel_kill(struct nouveau_channel *chan)
{
 atomic_set(&chan->killed, 1);
 if (chan->fence)
  nouveau_fence_context_kill(chan->fence, -ENODEV);
}

static int
nouveau_channel_killed(struct nvif_event *event, void *repv, u32 repc)
{
 struct nouveau_channel *chan = container_of(event, typeof(*chan), kill);
 struct nouveau_cli *cli = chan->cli;

 NV_PRINTK(warn, cli, "channel %d killed!\n", chan->chid);

 if (unlikely(!atomic_read(&chan->killed)))
  nouveau_channel_kill(chan);

 return NVIF_EVENT_DROP;
}

int
nouveau_channel_idle(struct nouveau_channel *chan)
{
 if (likely(chan && chan->fence && !atomic_read(&chan->killed))) {
  struct nouveau_cli *cli = chan->cli;
  struct nouveau_fence *fence = NULL;
  int ret;

  ret = nouveau_fence_new(&fence, chan);
  if (!ret) {
   ret = nouveau_fence_wait(fence, falsefalse);
   nouveau_fence_unref(&fence);
  }

  if (ret) {
   NV_PRINTK(err, cli, "failed to idle channel %d [%s]\n",
      chan->chid, cli->name);
   return ret;
  }
 }
 return 0;
}

void
nouveau_channel_del(struct nouveau_channel **pchan)
{
 struct nouveau_channel *chan = *pchan;
 if (chan) {
  if (chan->fence)
   nouveau_fence(chan->cli->drm)->context_del(chan);

  if (nvif_object_constructed(&chan->user))
   nouveau_svmm_part(chan->vmm->svmm, chan->inst);

  nvif_object_dtor(&chan->blit);
  nvif_object_dtor(&chan->nvsw);
  nvif_object_dtor(&chan->gart);
  nvif_object_dtor(&chan->vram);
  nvif_event_dtor(&chan->kill);
  nvif_object_dtor(&chan->user);
  nvif_mem_dtor(&chan->mem_userd);
  nouveau_vma_del(&chan->sema.vma);
  nouveau_bo_unpin_del(&chan->sema.bo);
  nvif_object_dtor(&chan->push.ctxdma);
  nouveau_vma_del(&chan->push.vma);
  nouveau_bo_unpin_del(&chan->push.buffer);
  kfree(chan);
 }
 *pchan = NULL;
}

static void
nouveau_channel_kick(struct nvif_push *push)
{
 struct nouveau_channel *chan = container_of(push, typeof(*chan), chan.push);
 chan->dma.cur = chan->dma.cur + (chan->chan.push.cur - chan->chan.push.bgn);
 FIRE_RING(chan);
 chan->chan.push.bgn = chan->chan.push.cur;
}

static int
nouveau_channel_wait(struct nvif_push *push, u32 size)
{
 struct nouveau_channel *chan = container_of(push, typeof(*chan), chan.push);
 int ret;
 chan->dma.cur = chan->dma.cur + (chan->chan.push.cur - chan->chan.push.bgn);
 ret = RING_SPACE(chan, size);
 if (ret == 0) {
  chan->chan.push.bgn = chan->chan.push.mem.object.map.ptr;
  chan->chan.push.bgn = chan->chan.push.bgn + chan->dma.cur;
  chan->chan.push.cur = chan->chan.push.bgn;
  chan->chan.push.end = chan->chan.push.bgn + size;
 }
 return ret;
}

static int
nouveau_channel_prep(struct nouveau_cli *cli,
       u32 size, struct nouveau_channel **pchan)
{
 struct nouveau_drm *drm = cli->drm;
 struct nvif_device *device = &cli->device;
 struct nv_dma_v0 args = {};
 struct nouveau_channel *chan;
 u32 target;
 int ret;

 chan = *pchan = kzalloc(sizeof(*chan), GFP_KERNEL);
 if (!chan)
  return -ENOMEM;

 chan->cli = cli;
 chan->vmm = nouveau_cli_vmm(cli);
 atomic_set(&chan->killed, 0);

 /* allocate memory for dma push buffer */
 target = NOUVEAU_GEM_DOMAIN_GART | NOUVEAU_GEM_DOMAIN_COHERENT;
 if (nouveau_vram_pushbuf)
  target = NOUVEAU_GEM_DOMAIN_VRAM;

 ret = nouveau_bo_new_map(cli, target, size, &chan->push.buffer);
 if (ret) {
  nouveau_channel_del(pchan);
  return ret;
 }

 chan->chan.push.mem.object.parent = cli->base.object.parent;
 chan->chan.push.mem.object.client = &cli->base;
 chan->chan.push.mem.object.name = "chanPush";
 chan->chan.push.mem.object.map.ptr = chan->push.buffer->kmap.virtual;
 chan->chan.push.wait = nouveau_channel_wait;
 chan->chan.push.kick = nouveau_channel_kick;

 /* create dma object covering the *entire* memory space that the
 * pushbuf lives in, this is because the GEM code requires that
 * we be able to call out to other (indirect) push buffers
 */

 chan->push.addr = chan->push.buffer->offset;

 if (device->info.family >= NV_DEVICE_INFO_V0_TESLA) {
  ret = nouveau_vma_new(chan->push.buffer, chan->vmm,
          &chan->push.vma);
  if (ret) {
   nouveau_channel_del(pchan);
   return ret;
  }

  chan->push.addr = chan->push.vma->addr;

  if (device->info.family >= NV_DEVICE_INFO_V0_FERMI) {
   return nouveau_bo_new_map_gpu(cli, NOUVEAU_GEM_DOMAIN_GART, PAGE_SIZE,
            &chan->sema.bo, &chan->sema.vma);
  }

  args.target = NV_DMA_V0_TARGET_VM;
  args.access = NV_DMA_V0_ACCESS_VM;
  args.start = 0;
  args.limit = chan->vmm->vmm.limit - 1;
 } else
 if (chan->push.buffer->bo.resource->mem_type == TTM_PL_VRAM) {
  if (device->info.family == NV_DEVICE_INFO_V0_TNT) {
   struct nvkm_device *nvkm_device = nvxx_device(drm);

   /* nv04 vram pushbuf hack, retarget to its location in
 * the framebuffer bar rather than direct vram access..
 * nfi why this exists, it came from the -nv ddx.
 */

   args.target = NV_DMA_V0_TARGET_PCI;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = nvkm_device->func->resource_addr(nvkm_device, NVKM_BAR1_FB);
   args.limit = args.start + device->info.ram_user - 1;
  } else {
   args.target = NV_DMA_V0_TARGET_VRAM;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = 0;
   args.limit = device->info.ram_user - 1;
  }
 } else {
  if (drm->agp.bridge) {
   args.target = NV_DMA_V0_TARGET_AGP;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = drm->agp.base;
   args.limit = drm->agp.base + drm->agp.size - 1;
  } else {
   args.target = NV_DMA_V0_TARGET_VM;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = 0;
   args.limit = chan->vmm->vmm.limit - 1;
  }
 }

 ret = nvif_object_ctor(&device->object, "abi16PushCtxDma", 0,
          NV_DMA_FROM_MEMORY, &args, sizeof(args),
          &chan->push.ctxdma);
 if (ret) {
  nouveau_channel_del(pchan);
  return ret;
 }

 return 0;
}

static int
nouveau_channel_ctor(struct nouveau_cli *cli, bool priv, u64 runm,
       struct nouveau_channel **pchan)
{
 const struct nvif_mclass hosts[] = {
  { BLACKWELL_CHANNEL_GPFIFO_B, 0 },
  { BLACKWELL_CHANNEL_GPFIFO_A, 0 },
  {    HOPPER_CHANNEL_GPFIFO_A, 0 },
  {    AMPERE_CHANNEL_GPFIFO_B, 0 },
  {    AMPERE_CHANNEL_GPFIFO_A, 0 },
  {    TURING_CHANNEL_GPFIFO_A, 0 },
  {     VOLTA_CHANNEL_GPFIFO_A, 0 },
  {    PASCAL_CHANNEL_GPFIFO_A, 0 },
  {   MAXWELL_CHANNEL_GPFIFO_A, 0 },
  {    KEPLER_CHANNEL_GPFIFO_B, 0 },
  {    KEPLER_CHANNEL_GPFIFO_A, 0 },
  {     FERMI_CHANNEL_GPFIFO  , 0 },
  {       G82_CHANNEL_GPFIFO  , 0 },
  {      NV50_CHANNEL_GPFIFO  , 0 },
  {      NV40_CHANNEL_DMA     , 0 },
  {      NV17_CHANNEL_DMA     , 0 },
  {      NV10_CHANNEL_DMA     , 0 },
  {      NV03_CHANNEL_DMA     , 0 },
  {}
 };
 DEFINE_RAW_FLEX(struct nvif_chan_v0, args, name, TASK_COMM_LEN + 16);
 struct nvif_device *device = &cli->device;
 struct nouveau_channel *chan;
 const u64 plength = 0x10000;
 const u64 ioffset = plength;
 const u64 ilength = 0x02000;
 int cid, ret;
 u64 size;

 cid = nvif_mclass(&device->object, hosts);
 if (cid < 0)
  return cid;

 if (hosts[cid].oclass < NV50_CHANNEL_GPFIFO)
  size = plength;
 else
  size = ioffset + ilength;

 /* allocate dma push buffer */
 ret = nouveau_channel_prep(cli, size, &chan);
 *pchan = chan;
 if (ret)
  return ret;

 /* create channel object */
 args->version = 0;
 args->namelen = __member_size(args->name);
 args->runlist = __ffs64(runm);
 args->runq = 0;
 args->priv = priv;
 args->devm = BIT(0);
 if (hosts[cid].oclass < NV50_CHANNEL_GPFIFO) {
  args->vmm = 0;
  args->ctxdma = nvif_handle(&chan->push.ctxdma);
  args->offset = chan->push.addr;
  args->length = 0;
 } else {
  args->vmm = nvif_handle(&chan->vmm->vmm.object);
  if (hosts[cid].oclass < FERMI_CHANNEL_GPFIFO)
   args->ctxdma = nvif_handle(&chan->push.ctxdma);
  else
   args->ctxdma = 0;
  args->offset = ioffset + chan->push.addr;
  args->length = ilength;
 }
 args->huserd = 0;
 args->ouserd = 0;

 /* allocate userd */
 if (hosts[cid].oclass >= VOLTA_CHANNEL_GPFIFO_A) {
  ret = nvif_mem_ctor(&cli->mmu, "abi16ChanUSERD", NVIF_CLASS_MEM_GF100,
        NVIF_MEM_VRAM | NVIF_MEM_COHERENT | NVIF_MEM_MAPPABLE,
        0, PAGE_SIZE, NULL, 0, &chan->mem_userd);
  if (ret)
   return ret;

  args->huserd = nvif_handle(&chan->mem_userd.object);
  args->ouserd = 0;

  chan->userd = &chan->mem_userd.object;
 } else {
  chan->userd = &chan->user;
 }

 snprintf(args->name, __member_size(args->name), "%s[%d]",
   current->comm, task_pid_nr(current));

 ret = nvif_object_ctor(&device->object, "abi16ChanUser", 0, hosts[cid].oclass,
          args, __struct_size(args), &chan->user);
 if (ret) {
  nouveau_channel_del(pchan);
  return ret;
 }

 chan->runlist = args->runlist;
 chan->chid = args->chid;
 chan->inst = args->inst;
 chan->token = args->token;
 return 0;
}

static int
nouveau_channel_init(struct nouveau_channel *chan, u32 vram, u32 gart)
{
 struct nouveau_cli *cli = chan->cli;
 struct nouveau_drm *drm = cli->drm;
 struct nvif_device *device = &cli->device;
 struct nv_dma_v0 args = {};
 int ret, i;

 ret = nvif_object_map(chan->userd, NULL, 0);
 if (ret)
  return ret;

 if (chan->user.oclass >= FERMI_CHANNEL_GPFIFO) {
  DEFINE_RAW_FLEX(struct nvif_event_v0, args, data,
    sizeof(struct nvif_chan_event_v0));
  struct nvif_chan_event_v0 *host =
    (struct nvif_chan_event_v0 *)args->data;

  host->version = 0;
  host->type = NVIF_CHAN_EVENT_V0_KILLED;

  ret = nvif_event_ctor(&chan->user, "abi16ChanKilled", chan->chid,
          nouveau_channel_killed, false,
          args, __struct_size(args), &chan->kill);
  if (ret == 0)
   ret = nvif_event_allow(&chan->kill);
  if (ret) {
   NV_ERROR(drm, "Failed to request channel kill "
          "notification: %d\n", ret);
   return ret;
  }
 }

 /* allocate dma objects to cover all allowed vram, and gart */
 if (device->info.family < NV_DEVICE_INFO_V0_FERMI) {
  if (device->info.family >= NV_DEVICE_INFO_V0_TESLA) {
   args.target = NV_DMA_V0_TARGET_VM;
   args.access = NV_DMA_V0_ACCESS_VM;
   args.start = 0;
   args.limit = chan->vmm->vmm.limit - 1;
  } else {
   args.target = NV_DMA_V0_TARGET_VRAM;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = 0;
   args.limit = device->info.ram_user - 1;
  }

  ret = nvif_object_ctor(&chan->user, "abi16ChanVramCtxDma", vram,
           NV_DMA_IN_MEMORY, &args, sizeof(args),
           &chan->vram);
  if (ret)
   return ret;

  if (device->info.family >= NV_DEVICE_INFO_V0_TESLA) {
   args.target = NV_DMA_V0_TARGET_VM;
   args.access = NV_DMA_V0_ACCESS_VM;
   args.start = 0;
   args.limit = chan->vmm->vmm.limit - 1;
  } else
  if (drm->agp.bridge) {
   args.target = NV_DMA_V0_TARGET_AGP;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = drm->agp.base;
   args.limit = drm->agp.base + drm->agp.size - 1;
  } else {
   args.target = NV_DMA_V0_TARGET_VM;
   args.access = NV_DMA_V0_ACCESS_RDWR;
   args.start = 0;
   args.limit = chan->vmm->vmm.limit - 1;
  }

  ret = nvif_object_ctor(&chan->user, "abi16ChanGartCtxDma", gart,
           NV_DMA_IN_MEMORY, &args, sizeof(args),
           &chan->gart);
  if (ret)
   return ret;
 }

 /* initialise dma tracking parameters */
 if (chan->user.oclass < NV50_CHANNEL_GPFIFO) {
  chan->user_put = 0x40;
  chan->user_get = 0x44;
  chan->dma.max = (0x10000 / 4) - 2;
 } else
 if (chan->user.oclass < FERMI_CHANNEL_GPFIFO) {
  ret = nvif_chan506f_ctor(&chan->chan, chan->userd->map.ptr,
      (u8*)chan->push.buffer->kmap.virtual + 0x10000, 0x2000,
      chan->push.buffer->kmap.virtual, chan->push.addr, 0x10000);
  if (ret)
   return ret;
 } else
 if (chan->user.oclass < VOLTA_CHANNEL_GPFIFO_A) {
  ret = nvif_chan906f_ctor(&chan->chan, chan->userd->map.ptr,
      (u8*)chan->push.buffer->kmap.virtual + 0x10000, 0x2000,
      chan->push.buffer->kmap.virtual, chan->push.addr, 0x10000,
      chan->sema.bo->kmap.virtual, chan->sema.vma->addr);
  if (ret)
   return ret;
 } else {
  ret = nvif_chanc36f_ctor(&chan->chan, chan->userd->map.ptr,
      (u8*)chan->push.buffer->kmap.virtual + 0x10000, 0x2000,
      chan->push.buffer->kmap.virtual, chan->push.addr, 0x10000,
      chan->sema.bo->kmap.virtual, chan->sema.vma->addr,
      &drm->client.device.user, chan->token);
  if (ret)
   return ret;
 }

 chan->dma.put = 0;
 chan->dma.cur = chan->dma.put;
 chan->dma.free = chan->dma.max - chan->dma.cur;

 ret = PUSH_WAIT(&chan->chan.push, NOUVEAU_DMA_SKIPS);
 if (ret)
  return ret;

 for (i = 0; i < NOUVEAU_DMA_SKIPS; i++)
  PUSH_DATA(&chan->chan.push, 0x00000000);

 /* allocate software object class (used for fences on <= nv05) */
 if (device->info.family < NV_DEVICE_INFO_V0_CELSIUS) {
  ret = nvif_object_ctor(&chan->user, "abi16NvswFence", 0x006e,
           NVIF_CLASS_SW_NV04,
           NULL, 0, &chan->nvsw);
  if (ret)
   return ret;

  ret = PUSH_WAIT(&chan->chan.push, 2);
  if (ret)
   return ret;

  PUSH_NVSQ(&chan->chan.push, NV_SW, 0x0000, chan->nvsw.handle);
  PUSH_KICK(&chan->chan.push);
 }

 /* initialise synchronisation */
 return nouveau_fence(drm)->context_new(chan);
}

int
nouveau_channel_new(struct nouveau_cli *cli,
      bool priv, u64 runm, u32 vram, u32 gart, struct nouveau_channel **pchan)
{
 int ret;

 ret = nouveau_channel_ctor(cli, priv, runm, pchan);
 if (ret) {
  NV_PRINTK(dbg, cli, "channel create, %d\n", ret);
  return ret;
 }

 ret = nouveau_channel_init(*pchan, vram, gart);
 if (ret) {
  NV_PRINTK(err, cli, "channel failed to initialise, %d\n", ret);
  nouveau_channel_del(pchan);
  return ret;
 }

 ret = nouveau_svmm_join((*pchan)->vmm->svmm, (*pchan)->inst);
 if (ret)
  nouveau_channel_del(pchan);

 return ret;
}

void
nouveau_channels_fini(struct nouveau_drm *drm)
{
 kfree(drm->runl);
}

int
nouveau_channels_init(struct nouveau_drm *drm)
{
 DEFINE_RAW_FLEX(struct nv_device_info_v1, args, data, 2);
 struct nv_device_info_v1_data *channels = &args->data[0];
 struct nv_device_info_v1_data *runlists = &args->data[1];
 struct nvif_object *device = &drm->client.device.object;
 int ret, i;

 args->version = 1;
 args->count = __member_size(args->data) / sizeof(*args->data);
 channels->mthd = NV_DEVICE_HOST_CHANNELS;
 runlists->mthd = NV_DEVICE_HOST_RUNLISTS;

 ret = nvif_object_mthd(device, NV_DEVICE_V0_INFO, args,
          __struct_size(args));
 if (ret ||
     runlists->mthd == NV_DEVICE_INFO_INVALID || !runlists->data ||
     channels->mthd == NV_DEVICE_INFO_INVALID)
  return -ENODEV;

 drm->chan_nr = drm->chan_total = channels->data;
 drm->runl_nr = fls64(runlists->data);
 drm->runl = kcalloc(drm->runl_nr, sizeof(*drm->runl), GFP_KERNEL);
 if (!drm->runl)
  return -ENOMEM;

 if (drm->chan_nr == 0) {
  for (i = 0; i < drm->runl_nr; i++) {
   if (!(runlists->data & BIT(i)))
    continue;

   channels->mthd = NV_DEVICE_HOST_RUNLIST_CHANNELS;
   channels->data = i;

   ret = nvif_object_mthd(device, NV_DEVICE_V0_INFO, args,
            __struct_size(args));
   if (ret || channels->mthd == NV_DEVICE_INFO_INVALID)
    return -ENODEV;

   drm->runl[i].chan_nr = channels->data;
   drm->runl[i].chan_id_base = drm->chan_total;
   drm->runl[i].context_base = dma_fence_context_alloc(drm->runl[i].chan_nr);

   drm->chan_total += drm->runl[i].chan_nr;
  }
 } else {
  drm->runl[0].context_base = dma_fence_context_alloc(drm->chan_nr);
  for (i = 1; i < drm->runl_nr; i++)
   drm->runl[i].context_base = drm->runl[0].context_base;

 }

 return 0;
}

Messung V0.5
C=95 H=92 G=93

¤ Dauer der Verarbeitung: 0.5 Sekunden  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.