Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


Quelle  vmwgfx_execbuf.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0 OR MIT
/**************************************************************************
 *
 * Copyright (c) 2009-2025 Broadcom. All Rights Reserved. The term
 * “Broadcom” refers to Broadcom Inc. and/or its subsidiaries.
 *
 **************************************************************************/


#include "vmwgfx_binding.h"
#include "vmwgfx_bo.h"
#include "vmwgfx_drv.h"
#include "vmwgfx_mksstat.h"
#include "vmwgfx_so.h"

#include <drm/ttm/ttm_bo.h>
#include <drm/ttm/ttm_placement.h>

#include <linux/sync_file.h>
#include <linux/hashtable.h>
#include <linux/vmalloc.h>

/*
 * Helper macro to get dx_ctx_node if available otherwise print an error
 * message. This is for use in command verifier function where if dx_ctx_node
 * is not set then command is invalid.
 */

#define VMW_GET_CTX_NODE(__sw_context)                                        \
({                                                                            \
 __sw_context->dx_ctx_node ? __sw_context->dx_ctx_node : ({            \
  VMW_DEBUG_USER("SM context is not set at %s\n", __func__);    \
  __sw_context->dx_ctx_node;                                    \
 });                                                                   \
})

#define VMW_DECLARE_CMD_VAR(__var, __type)                                    \
 struct {                                                              \
  SVGA3dCmdHeader header;                                       \
  __type body;                                                  \
 } __var

/**
 * struct vmw_relocation - Buffer object relocation
 *
 * @head: List head for the command submission context's relocation list
 * @vbo: Non ref-counted pointer to buffer object
 * @mob_loc: Pointer to location for mob id to be modified
 * @location: Pointer to location for guest pointer to be modified
 */

struct vmw_relocation {
 struct list_head head;
 struct vmw_bo *vbo;
 union {
  SVGAMobId *mob_loc;
  SVGAGuestPtr *location;
 };
};

/**
 * enum vmw_resource_relocation_type - Relocation type for resources
 *
 * @vmw_res_rel_normal: Traditional relocation. The resource id in the
 * command stream is replaced with the actual id after validation.
 * @vmw_res_rel_nop: NOP relocation. The command is unconditionally replaced
 * with a NOP.
 * @vmw_res_rel_cond_nop: Conditional NOP relocation. If the resource id after
 * validation is -1, the command is replaced with a NOP. Otherwise no action.
 * @vmw_res_rel_max: Last value in the enum - used for error checking
*/

enum vmw_resource_relocation_type {
 vmw_res_rel_normal,
 vmw_res_rel_nop,
 vmw_res_rel_cond_nop,
 vmw_res_rel_max
};

/**
 * struct vmw_resource_relocation - Relocation info for resources
 *
 * @head: List head for the software context's relocation list.
 * @res: Non-ref-counted pointer to the resource.
 * @offset: Offset of single byte entries into the command buffer where the id
 * that needs fixup is located.
 * @rel_type: Type of relocation.
 */

struct vmw_resource_relocation {
 struct list_head head;
 const struct vmw_resource *res;
 u32 offset:29;
 enum vmw_resource_relocation_type rel_type:3;
};

/**
 * struct vmw_ctx_validation_info - Extra validation metadata for contexts
 *
 * @head: List head of context list
 * @ctx: The context resource
 * @cur: The context's persistent binding state
 * @staged: The binding state changes of this command buffer
 */

struct vmw_ctx_validation_info {
 struct list_head head;
 struct vmw_resource *ctx;
 struct vmw_ctx_binding_state *cur;
 struct vmw_ctx_binding_state *staged;
};

/**
 * struct vmw_cmd_entry - Describe a command for the verifier
 *
 * @func: Call-back to handle the command.
 * @user_allow: Whether allowed from the execbuf ioctl.
 * @gb_disable: Whether disabled if guest-backed objects are available.
 * @gb_enable: Whether enabled iff guest-backed objects are available.
 * @cmd_name: Name of the command.
 */

struct vmw_cmd_entry {
 int (*func) (struct vmw_private *, struct vmw_sw_context *,
       SVGA3dCmdHeader *);
 bool user_allow;
 bool gb_disable;
 bool gb_enable;
 const char *cmd_name;
};

#define VMW_CMD_DEF(_cmd, _func, _user_allow, _gb_disable, _gb_enable) \
 [(_cmd) - SVGA_3D_CMD_BASE] = {(_func), (_user_allow),\
           (_gb_disable), (_gb_enable), #_cmd}

static int vmw_resource_context_res_add(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     struct vmw_resource *ctx);
static int vmw_translate_mob_ptr(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGAMobId *id,
     struct vmw_bo **vmw_bo_p);
/**
 * vmw_ptr_diff - Compute the offset from a to b in bytes
 *
 * @a: A starting pointer.
 * @b: A pointer offset in the same address space.
 *
 * Returns: The offset in bytes between the two pointers.
 */

static size_t vmw_ptr_diff(void *a, void *b)
{
 return (unsigned long) b - (unsigned long) a;
}

/**
 * vmw_execbuf_bindings_commit - Commit modified binding state
 *
 * @sw_context: The command submission context
 * @backoff: Whether this is part of the error path and binding state changes
 * should be ignored
 */

static void vmw_execbuf_bindings_commit(struct vmw_sw_context *sw_context,
     bool backoff)
{
 struct vmw_ctx_validation_info *entry;

 list_for_each_entry(entry, &sw_context->ctx_list, head) {
  if (!backoff)
   vmw_binding_state_commit(entry->cur, entry->staged);

  if (entry->staged != sw_context->staged_bindings)
   vmw_binding_state_free(entry->staged);
  else
   sw_context->staged_bindings_inuse = false;
 }

 /* List entries are freed with the validation context */
 INIT_LIST_HEAD(&sw_context->ctx_list);
}

/**
 * vmw_bind_dx_query_mob - Bind the DX query MOB if referenced
 *
 * @sw_context: The command submission context
 */

static void vmw_bind_dx_query_mob(struct vmw_sw_context *sw_context)
{
 if (sw_context->dx_query_mob)
  vmw_context_bind_dx_query(sw_context->dx_query_ctx,
       sw_context->dx_query_mob);
}

/**
 * vmw_cmd_ctx_first_setup - Perform the setup needed when a context is added to
 * the validate list.
 *
 * @dev_priv: Pointer to the device private:
 * @sw_context: The command submission context
 * @res: Pointer to the resource
 * @node: The validation node holding the context resource metadata
 */

static int vmw_cmd_ctx_first_setup(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       struct vmw_resource *res,
       struct vmw_ctx_validation_info *node)
{
 int ret;

 ret = vmw_resource_context_res_add(dev_priv, sw_context, res);
 if (unlikely(ret != 0))
  goto out_err;

 if (!sw_context->staged_bindings) {
  sw_context->staged_bindings = vmw_binding_state_alloc(dev_priv);
  if (IS_ERR(sw_context->staged_bindings)) {
   ret = PTR_ERR(sw_context->staged_bindings);
   sw_context->staged_bindings = NULL;
   goto out_err;
  }
 }

 if (sw_context->staged_bindings_inuse) {
  node->staged = vmw_binding_state_alloc(dev_priv);
  if (IS_ERR(node->staged)) {
   ret = PTR_ERR(node->staged);
   node->staged = NULL;
   goto out_err;
  }
 } else {
  node->staged = sw_context->staged_bindings;
  sw_context->staged_bindings_inuse = true;
 }

 node->ctx = res;
 node->cur = vmw_context_binding_state(res);
 list_add_tail(&node->head, &sw_context->ctx_list);

 return 0;

out_err:
 return ret;
}

/**
 * vmw_execbuf_res_size - calculate extra size fore the resource validation node
 *
 * @dev_priv: Pointer to the device private struct.
 * @res_type: The resource type.
 *
 * Guest-backed contexts and DX contexts require extra size to store execbuf
 * private information in the validation node. Typically the binding manager
 * associated data structures.
 *
 * Returns: The extra size requirement based on resource type.
 */

static unsigned int vmw_execbuf_res_size(struct vmw_private *dev_priv,
      enum vmw_res_type res_type)
{
 return (res_type == vmw_res_dx_context ||
  (res_type == vmw_res_context && dev_priv->has_mob)) ?
  sizeof(struct vmw_ctx_validation_info) : 0;
}

/**
 * vmw_execbuf_rcache_update - Update a resource-node cache entry
 *
 * @rcache: Pointer to the entry to update.
 * @res: Pointer to the resource.
 * @private: Pointer to the execbuf-private space in the resource validation
 * node.
 */

static void vmw_execbuf_rcache_update(struct vmw_res_cache_entry *rcache,
          struct vmw_resource *res,
          void *private)
{
 rcache->res = res;
 rcache->private = private;
 rcache->valid = 1;
 rcache->valid_handle = 0;
}

enum vmw_val_add_flags {
 vmw_val_add_flag_none  =      0,
 vmw_val_add_flag_noctx = 1 << 0,
};

/**
 * vmw_execbuf_res_val_add - Add a resource to the validation list.
 *
 * @sw_context: Pointer to the software context.
 * @res: Unreferenced rcu-protected pointer to the resource.
 * @dirty: Whether to change dirty status.
 * @flags: specifies whether to use the context or not
 *
 * Returns: 0 on success. Negative error code on failure. Typical error codes
 * are %-EINVAL on inconsistency and %-ESRCH if the resource was doomed.
 */

static int vmw_execbuf_res_val_add(struct vmw_sw_context *sw_context,
       struct vmw_resource *res,
       u32 dirty,
       u32 flags)
{
 struct vmw_private *dev_priv = res->dev_priv;
 int ret;
 enum vmw_res_type res_type = vmw_res_type(res);
 struct vmw_res_cache_entry *rcache;
 struct vmw_ctx_validation_info *ctx_info;
 bool first_usage;
 unsigned int priv_size;

 rcache = &sw_context->res_cache[res_type];
 if (likely(rcache->valid && rcache->res == res)) {
  if (dirty)
   vmw_validation_res_set_dirty(sw_context->ctx,
           rcache->private, dirty);
  return 0;
 }

 if ((flags & vmw_val_add_flag_noctx) != 0) {
  ret = vmw_validation_add_resource(sw_context->ctx, res, 0, dirty,
        (void **)&ctx_info, NULL);
  if (ret)
   return ret;

 } else {
  priv_size = vmw_execbuf_res_size(dev_priv, res_type);
  ret = vmw_validation_add_resource(sw_context->ctx, res, priv_size,
        dirty, (void **)&ctx_info,
        &first_usage);
  if (ret)
   return ret;

  if (priv_size && first_usage) {
   ret = vmw_cmd_ctx_first_setup(dev_priv, sw_context, res,
            ctx_info);
   if (ret) {
    VMW_DEBUG_USER("Failed first usage context setup.\n");
    return ret;
   }
  }
 }

 vmw_execbuf_rcache_update(rcache, res, ctx_info);
 return 0;
}

/**
 * vmw_view_res_val_add - Add a view and the surface it's pointing to to the
 * validation list
 *
 * @sw_context: The software context holding the validation list.
 * @view: Pointer to the view resource.
 *
 * Returns 0 if success, negative error code otherwise.
 */

static int vmw_view_res_val_add(struct vmw_sw_context *sw_context,
    struct vmw_resource *view)
{
 int ret;

 /*
 * First add the resource the view is pointing to, otherwise it may be
 * swapped out when the view is validated.
 */

 ret = vmw_execbuf_res_val_add(sw_context, vmw_view_srf(view),
          vmw_view_dirtying(view), vmw_val_add_flag_noctx);
 if (ret)
  return ret;

 return vmw_execbuf_res_val_add(sw_context, view, VMW_RES_DIRTY_NONE,
           vmw_val_add_flag_noctx);
}

/**
 * vmw_view_id_val_add - Look up a view and add it and the surface it's pointing
 * to to the validation list.
 *
 * @sw_context: The software context holding the validation list.
 * @view_type: The view type to look up.
 * @id: view id of the view.
 *
 * The view is represented by a view id and the DX context it's created on, or
 * scheduled for creation on. If there is no DX context set, the function will
 * return an -EINVAL error pointer.
 *
 * Returns: Unreferenced pointer to the resource on success, negative error
 * pointer on failure.
 */

static struct vmw_resource *
vmw_view_id_val_add(struct vmw_sw_context *sw_context,
      enum vmw_view_type view_type, u32 id)
{
 struct vmw_ctx_validation_info *ctx_node = sw_context->dx_ctx_node;
 struct vmw_resource *view;
 int ret;

 if (!ctx_node)
  return ERR_PTR(-EINVAL);

 view = vmw_view_lookup(sw_context->man, view_type, id);
 if (IS_ERR(view))
  return view;

 ret = vmw_view_res_val_add(sw_context, view);
 if (ret)
  return ERR_PTR(ret);

 return view;
}

/**
 * vmw_resource_context_res_add - Put resources previously bound to a context on
 * the validation list
 *
 * @dev_priv: Pointer to a device private structure
 * @sw_context: Pointer to a software context used for this command submission
 * @ctx: Pointer to the context resource
 *
 * This function puts all resources that were previously bound to @ctx on the
 * resource validation list. This is part of the context state reemission
 */

static int vmw_resource_context_res_add(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     struct vmw_resource *ctx)
{
 struct list_head *binding_list;
 struct vmw_ctx_bindinfo *entry;
 int ret = 0;
 struct vmw_resource *res;
 u32 i;
 u32 cotable_max = has_sm5_context(ctx->dev_priv) ?
  SVGA_COTABLE_MAX : SVGA_COTABLE_DX10_MAX;

 /* Add all cotables to the validation list. */
 if (has_sm4_context(dev_priv) &&
     vmw_res_type(ctx) == vmw_res_dx_context) {
  for (i = 0; i < cotable_max; ++i) {
   res = vmw_context_cotable(ctx, i);
   if (IS_ERR_OR_NULL(res))
    continue;

   ret = vmw_execbuf_res_val_add(sw_context, res,
            VMW_RES_DIRTY_SET,
            vmw_val_add_flag_noctx);
   if (unlikely(ret != 0))
    return ret;
  }
 }

 /* Add all resources bound to the context to the validation list */
 mutex_lock(&dev_priv->binding_mutex);
 binding_list = vmw_context_binding_list(ctx);

 list_for_each_entry(entry, binding_list, ctx_list) {
  if (vmw_res_type(entry->res) == vmw_res_view)
   ret = vmw_view_res_val_add(sw_context, entry->res);
  else
   ret = vmw_execbuf_res_val_add(sw_context, entry->res,
            vmw_binding_dirtying(entry->bt),
            vmw_val_add_flag_noctx);
  if (unlikely(ret != 0))
   break;
 }

 if (has_sm4_context(dev_priv) &&
     vmw_res_type(ctx) == vmw_res_dx_context) {
  struct vmw_bo *dx_query_mob;

  dx_query_mob = vmw_context_get_dx_query_mob(ctx);
  if (dx_query_mob) {
   vmw_bo_placement_set(dx_query_mob,
          VMW_BO_DOMAIN_MOB,
          VMW_BO_DOMAIN_MOB);
   ret = vmw_validation_add_bo(sw_context->ctx,
          dx_query_mob);
  }
 }

 mutex_unlock(&dev_priv->binding_mutex);
 return ret;
}

/**
 * vmw_resource_relocation_add - Add a relocation to the relocation list
 *
 * @sw_context: Pointer to the software context.
 * @res: The resource.
 * @offset: Offset into the command buffer currently being parsed where the id
 * that needs fixup is located. Granularity is one byte.
 * @rel_type: Relocation type.
 */

static int vmw_resource_relocation_add(struct vmw_sw_context *sw_context,
           const struct vmw_resource *res,
           unsigned long offset,
           enum vmw_resource_relocation_type
           rel_type)
{
 struct vmw_resource_relocation *rel;

 rel = vmw_validation_mem_alloc(sw_context->ctx, sizeof(*rel));
 if (unlikely(!rel)) {
  VMW_DEBUG_USER("Failed to allocate a resource relocation.\n");
  return -ENOMEM;
 }

 rel->res = res;
 rel->offset = offset;
 rel->rel_type = rel_type;
 list_add_tail(&rel->head, &sw_context->res_relocations);

 return 0;
}

/**
 * vmw_resource_relocations_free - Free all relocations on a list
 *
 * @list: Pointer to the head of the relocation list
 */

static void vmw_resource_relocations_free(struct list_head *list)
{
 /* Memory is validation context memory, so no need to free it */
 INIT_LIST_HEAD(list);
}

/**
 * vmw_resource_relocations_apply - Apply all relocations on a list
 *
 * @cb: Pointer to the start of the command buffer bein patch. This need not be
 * the same buffer as the one being parsed when the relocation list was built,
 * but the contents must be the same modulo the resource ids.
 * @list: Pointer to the head of the relocation list.
 */

static void vmw_resource_relocations_apply(uint32_t *cb,
        struct list_head *list)
{
 struct vmw_resource_relocation *rel;

 /* Validate the struct vmw_resource_relocation member size */
 BUILD_BUG_ON(SVGA_CB_MAX_SIZE >= (1 << 29));
 BUILD_BUG_ON(vmw_res_rel_max >= (1 << 3));

 list_for_each_entry(rel, list, head) {
  u32 *addr = (u32 *)((unsigned long) cb + rel->offset);
  switch (rel->rel_type) {
  case vmw_res_rel_normal:
   *addr = rel->res->id;
   break;
  case vmw_res_rel_nop:
   *addr = SVGA_3D_CMD_NOP;
   break;
  default:
   if (rel->res->id == -1)
    *addr = SVGA_3D_CMD_NOP;
   break;
  }
 }
}

static int vmw_cmd_invalid(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 return -EINVAL;
}

static int vmw_cmd_ok(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 return 0;
}

/**
 * vmw_resources_reserve - Reserve all resources on the sw_context's resource
 * list.
 *
 * @sw_context: Pointer to the software context.
 *
 * Note that since vmware's command submission currently is protected by the
 * cmdbuf mutex, no fancy deadlock avoidance is required for resources, since
 * only a single thread at once will attempt this.
 */

static int vmw_resources_reserve(struct vmw_sw_context *sw_context)
{
 int ret;

 ret = vmw_validation_res_reserve(sw_context->ctx, true);
 if (ret)
  return ret;

 if (sw_context->dx_query_mob) {
  struct vmw_bo *expected_dx_query_mob;

  expected_dx_query_mob =
   vmw_context_get_dx_query_mob(sw_context->dx_query_ctx);
  if (expected_dx_query_mob &&
      expected_dx_query_mob != sw_context->dx_query_mob) {
   ret = -EINVAL;
  }
 }

 return ret;
}

/**
 * vmw_cmd_res_check - Check that a resource is present and if so, put it on the
 * resource validate list unless it's already there.
 *
 * @dev_priv: Pointer to a device private structure.
 * @sw_context: Pointer to the software context.
 * @res_type: Resource type.
 * @dirty: Whether to change dirty status.
 * @converter: User-space visible type specific information.
 * @id_loc: Pointer to the location in the command buffer currently being parsed
 * from where the user-space resource id handle is located.
 * @p_res: Pointer to pointer to resource validation node. Populated on
 * exit.
 */

static int
vmw_cmd_res_check(struct vmw_private *dev_priv,
    struct vmw_sw_context *sw_context,
    enum vmw_res_type res_type,
    u32 dirty,
    const struct vmw_user_resource_conv *converter,
    uint32_t *id_loc,
    struct vmw_resource **p_res)
{
 struct vmw_res_cache_entry *rcache = &sw_context->res_cache[res_type];
 struct vmw_resource *res;
 int ret = 0;
 bool needs_unref = false;

 if (p_res)
  *p_res = NULL;

 if (*id_loc == SVGA3D_INVALID_ID) {
  if (res_type == vmw_res_context) {
   VMW_DEBUG_USER("Illegal context invalid id.\n");
   return -EINVAL;
  }
  return 0;
 }

 if (likely(rcache->valid_handle && *id_loc == rcache->handle)) {
  res = rcache->res;
  if (dirty)
   vmw_validation_res_set_dirty(sw_context->ctx,
           rcache->private, dirty);
 } else {
  unsigned int size = vmw_execbuf_res_size(dev_priv, res_type);

  ret = vmw_validation_preload_res(sw_context->ctx, size);
  if (ret)
   return ret;

  ret = vmw_user_resource_lookup_handle
   (dev_priv, sw_context->fp->tfile, *id_loc, converter, &res);
  if (ret != 0) {
   VMW_DEBUG_USER("Could not find/use resource 0x%08x.\n",
           (unsigned int) *id_loc);
   return ret;
  }
  needs_unref = true;

  ret = vmw_execbuf_res_val_add(sw_context, res, dirty, vmw_val_add_flag_none);
  if (unlikely(ret != 0))
   goto res_check_done;

  if (rcache->valid && rcache->res == res) {
   rcache->valid_handle = true;
   rcache->handle = *id_loc;
  }
 }

 ret = vmw_resource_relocation_add(sw_context, res,
       vmw_ptr_diff(sw_context->buf_start,
             id_loc),
       vmw_res_rel_normal);
 if (p_res)
  *p_res = res;

res_check_done:
 if (needs_unref)
  vmw_resource_unreference(&res);

 return ret;
}

/**
 * vmw_rebind_all_dx_query - Rebind DX query associated with the context
 *
 * @ctx_res: context the query belongs to
 *
 * This function assumes binding_mutex is held.
 */

static int vmw_rebind_all_dx_query(struct vmw_resource *ctx_res)
{
 struct vmw_private *dev_priv = ctx_res->dev_priv;
 struct vmw_bo *dx_query_mob;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXBindAllQuery);

 dx_query_mob = vmw_context_get_dx_query_mob(ctx_res);

 if (!dx_query_mob || dx_query_mob->dx_query_ctx)
  return 0;

 cmd = VMW_CMD_CTX_RESERVE(dev_priv, sizeof(*cmd), ctx_res->id);
 if (cmd == NULL)
  return -ENOMEM;

 cmd->header.id = SVGA_3D_CMD_DX_BIND_ALL_QUERY;
 cmd->header.size = sizeof(cmd->body);
 cmd->body.cid = ctx_res->id;
 cmd->body.mobid = dx_query_mob->tbo.resource->start;
 vmw_cmd_commit(dev_priv, sizeof(*cmd));

 vmw_context_bind_dx_query(ctx_res, dx_query_mob);

 return 0;
}

/**
 * vmw_rebind_contexts - Rebind all resources previously bound to referenced
 * contexts.
 *
 * @sw_context: Pointer to the software context.
 *
 * Rebind context binding points that have been scrubbed because of eviction.
 */

static int vmw_rebind_contexts(struct vmw_sw_context *sw_context)
{
 struct vmw_ctx_validation_info *val;
 int ret;

 list_for_each_entry(val, &sw_context->ctx_list, head) {
  ret = vmw_binding_rebind_all(val->cur);
  if (unlikely(ret != 0)) {
   if (ret != -ERESTARTSYS)
    VMW_DEBUG_USER("Failed to rebind context.\n");
   return ret;
  }

  ret = vmw_rebind_all_dx_query(val->ctx);
  if (ret != 0) {
   VMW_DEBUG_USER("Failed to rebind queries.\n");
   return ret;
  }
 }

 return 0;
}

/**
 * vmw_view_bindings_add - Add an array of view bindings to a context binding
 * state tracker.
 *
 * @sw_context: The execbuf state used for this command.
 * @view_type: View type for the bindings.
 * @binding_type: Binding type for the bindings.
 * @shader_slot: The shader slot to user for the bindings.
 * @view_ids: Array of view ids to be bound.
 * @num_views: Number of view ids in @view_ids.
 * @first_slot: The binding slot to be used for the first view id in @view_ids.
 */

static int vmw_view_bindings_add(struct vmw_sw_context *sw_context,
     enum vmw_view_type view_type,
     enum vmw_ctx_binding_type binding_type,
     uint32 shader_slot,
     uint32 view_ids[], u32 num_views,
     u32 first_slot)
{
 struct vmw_ctx_validation_info *ctx_node = VMW_GET_CTX_NODE(sw_context);
 u32 i;

 if (!ctx_node)
  return -EINVAL;

 for (i = 0; i < num_views; ++i) {
  struct vmw_ctx_bindinfo_view binding;
  struct vmw_resource *view = NULL;

  if (view_ids[i] != SVGA3D_INVALID_ID) {
   view = vmw_view_id_val_add(sw_context, view_type,
         view_ids[i]);
   if (IS_ERR(view)) {
    VMW_DEBUG_USER("View not found.\n");
    return PTR_ERR(view);
   }
  }
  binding.bi.ctx = ctx_node->ctx;
  binding.bi.res = view;
  binding.bi.bt = binding_type;
  binding.shader_slot = shader_slot;
  binding.slot = first_slot + i;
  vmw_binding_add(ctx_node->staged, &binding.bi,
    shader_slot, binding.slot);
 }

 return 0;
}

/**
 * vmw_cmd_cid_check - Check a command header for valid context information.
 *
 * @dev_priv: Pointer to a device private structure.
 * @sw_context: Pointer to the software context.
 * @header: A command header with an embedded user-space context handle.
 *
 * Convenience function: Call vmw_cmd_res_check with the user-space context
 * handle embedded in @header.
 */

static int vmw_cmd_cid_check(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, uint32_t) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
     VMW_RES_DIRTY_SET, user_context_converter,
     &cmd->body, NULL);
}

/**
 * vmw_execbuf_info_from_res - Get the private validation metadata for a
 * recently validated resource
 *
 * @sw_context: Pointer to the command submission context
 * @res: The resource
 *
 * The resource pointed to by @res needs to be present in the command submission
 * context's resource cache and hence the last resource of that type to be
 * processed by the validation code.
 *
 * Return: a pointer to the private metadata of the resource, or NULL if it
 * wasn't found
 */

static struct vmw_ctx_validation_info *
vmw_execbuf_info_from_res(struct vmw_sw_context *sw_context,
     struct vmw_resource *res)
{
 struct vmw_res_cache_entry *rcache =
  &sw_context->res_cache[vmw_res_type(res)];

 if (rcache->valid && rcache->res == res)
  return rcache->private;

 WARN_ON_ONCE(true);
 return NULL;
}

static int vmw_cmd_set_render_target_check(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSetRenderTarget);
 struct vmw_resource *ctx;
 struct vmw_resource *res;
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 if (cmd->body.type >= SVGA3D_RT_MAX) {
  VMW_DEBUG_USER("Illegal render target type %u.\n",
          (unsigned int) cmd->body.type);
  return -EINVAL;
 }

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, &ctx);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_SET, user_surface_converter,
    &cmd->body.target.sid, &res);
 if (unlikely(ret))
  return ret;

 if (dev_priv->has_mob) {
  struct vmw_ctx_bindinfo_view binding;
  struct vmw_ctx_validation_info *node;

  node = vmw_execbuf_info_from_res(sw_context, ctx);
  if (!node)
   return -EINVAL;

  binding.bi.ctx = ctx;
  binding.bi.res = res;
  binding.bi.bt = vmw_ctx_binding_rt;
  binding.slot = cmd->body.type;
  vmw_binding_add(node->staged, &binding.bi, 0, binding.slot);
 }

 return 0;
}

static int vmw_cmd_surface_copy_check(struct vmw_private *dev_priv,
          struct vmw_sw_context *sw_context,
          SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSurfaceCopy);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_NONE, user_surface_converter,
    &cmd->body.src.sid, NULL);
 if (ret)
  return ret;

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_SET, user_surface_converter,
     &cmd->body.dest.sid, NULL);
}

static int vmw_cmd_buffer_copy_check(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXBufferCopy);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_NONE, user_surface_converter,
    &cmd->body.src, NULL);
 if (ret != 0)
  return ret;

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_SET, user_surface_converter,
     &cmd->body.dest, NULL);
}

static int vmw_cmd_pred_copy_check(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXPredCopyRegion);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_NONE, user_surface_converter,
    &cmd->body.srcSid, NULL);
 if (ret != 0)
  return ret;

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_SET, user_surface_converter,
     &cmd->body.dstSid, NULL);
}

static int vmw_cmd_stretch_blt_check(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSurfaceStretchBlt);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_NONE, user_surface_converter,
    &cmd->body.src.sid, NULL);
 if (unlikely(ret != 0))
  return ret;

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_SET, user_surface_converter,
     &cmd->body.dest.sid, NULL);
}

static int vmw_cmd_blt_surf_screen_check(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdBlitSurfaceToScreen) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE, user_surface_converter,
     &cmd->body.srcImage.sid, NULL);
}

static int vmw_cmd_present_check(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdPresent) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE, user_surface_converter,
     &cmd->body.sid, NULL);
}

/**
 * vmw_query_bo_switch_prepare - Prepare to switch pinned buffer for queries.
 *
 * @dev_priv: The device private structure.
 * @new_query_bo: The new buffer holding query results.
 * @sw_context: The software context used for this command submission.
 *
 * This function checks whether @new_query_bo is suitable for holding query
 * results, and if another buffer currently is pinned for query results. If so,
 * the function prepares the state of @sw_context for switching pinned buffers
 * after successful submission of the current command batch.
 */

static int vmw_query_bo_switch_prepare(struct vmw_private *dev_priv,
           struct vmw_bo *new_query_bo,
           struct vmw_sw_context *sw_context)
{
 struct vmw_res_cache_entry *ctx_entry =
  &sw_context->res_cache[vmw_res_context];
 int ret;

 BUG_ON(!ctx_entry->valid);
 sw_context->last_query_ctx = ctx_entry->res;

 if (unlikely(new_query_bo != sw_context->cur_query_bo)) {

  if (unlikely(PFN_UP(new_query_bo->tbo.resource->size) > 4)) {
   VMW_DEBUG_USER("Query buffer too large.\n");
   return -EINVAL;
  }

  if (unlikely(sw_context->cur_query_bo != NULL)) {
   sw_context->needs_post_query_barrier = true;
   vmw_bo_placement_set_default_accelerated(sw_context->cur_query_bo);
   ret = vmw_validation_add_bo(sw_context->ctx,
          sw_context->cur_query_bo);
   if (unlikely(ret != 0))
    return ret;
  }
  sw_context->cur_query_bo = new_query_bo;

  vmw_bo_placement_set_default_accelerated(dev_priv->dummy_query_bo);
  ret = vmw_validation_add_bo(sw_context->ctx,
         dev_priv->dummy_query_bo);
  if (unlikely(ret != 0))
   return ret;
 }

 return 0;
}

/**
 * vmw_query_bo_switch_commit - Finalize switching pinned query buffer
 *
 * @dev_priv: The device private structure.
 * @sw_context: The software context used for this command submission batch.
 *
 * This function will check if we're switching query buffers, and will then,
 * issue a dummy occlusion query wait used as a query barrier. When the fence
 * object following that query wait has signaled, we are sure that all preceding
 * queries have finished, and the old query buffer can be unpinned. However,
 * since both the new query buffer and the old one are fenced with that fence,
 * we can do an asynchronus unpin now, and be sure that the old query buffer
 * won't be moved until the fence has signaled.
 *
 * As mentioned above, both the new - and old query buffers need to be fenced
 * using a sequence emitted *after* calling this function.
 */

static void vmw_query_bo_switch_commit(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context)
{
 /*
 * The validate list should still hold references to all
 * contexts here.
 */

 if (sw_context->needs_post_query_barrier) {
  struct vmw_res_cache_entry *ctx_entry =
   &sw_context->res_cache[vmw_res_context];
  struct vmw_resource *ctx;
  int ret;

  BUG_ON(!ctx_entry->valid);
  ctx = ctx_entry->res;

  ret = vmw_cmd_emit_dummy_query(dev_priv, ctx->id);

  if (unlikely(ret != 0))
   VMW_DEBUG_USER("Out of fifo space for dummy query.\n");
 }

 if (dev_priv->pinned_bo != sw_context->cur_query_bo) {
  if (dev_priv->pinned_bo) {
   vmw_bo_pin_reserved(dev_priv->pinned_bo, false);
   vmw_bo_unreference(&dev_priv->pinned_bo);
  }

  if (!sw_context->needs_post_query_barrier) {
   vmw_bo_pin_reserved(sw_context->cur_query_bo, true);

   /*
 * We pin also the dummy_query_bo buffer so that we
 * don't need to validate it when emitting dummy queries
 * in context destroy paths.
 */

   if (!dev_priv->dummy_query_bo_pinned) {
    vmw_bo_pin_reserved(dev_priv->dummy_query_bo,
          true);
    dev_priv->dummy_query_bo_pinned = true;
   }

   BUG_ON(sw_context->last_query_ctx == NULL);
   dev_priv->query_cid = sw_context->last_query_ctx->id;
   dev_priv->query_cid_valid = true;
   dev_priv->pinned_bo =
    vmw_bo_reference(sw_context->cur_query_bo);
  }
 }
}

/**
 * vmw_translate_mob_ptr - Prepare to translate a user-space buffer handle
 * to a MOB id.
 *
 * @dev_priv: Pointer to a device private structure.
 * @sw_context: The software context used for this command batch validation.
 * @id: Pointer to the user-space handle to be translated.
 * @vmw_bo_p: Points to a location that, on successful return will carry a
 * non-reference-counted pointer to the buffer object identified by the
 * user-space handle in @id.
 *
 * This function saves information needed to translate a user-space buffer
 * handle to a MOB id. The translation does not take place immediately, but
 * during a call to vmw_apply_relocations().
 *
 * This function builds a relocation list and a list of buffers to validate. The
 * former needs to be freed using either vmw_apply_relocations() or
 * vmw_free_relocations(). The latter needs to be freed using
 * vmw_clear_validations.
 */

static int vmw_translate_mob_ptr(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGAMobId *id,
     struct vmw_bo **vmw_bo_p)
{
 struct vmw_bo *vmw_bo, *tmp_bo;
 uint32_t handle = *id;
 struct vmw_relocation *reloc;
 int ret;

 vmw_validation_preload_bo(sw_context->ctx);
 ret = vmw_user_bo_lookup(sw_context->filp, handle, &vmw_bo);
 if (ret != 0) {
  drm_dbg(&dev_priv->drm, "Could not find or use MOB buffer.\n");
  return PTR_ERR(vmw_bo);
 }
 vmw_bo_placement_set(vmw_bo, VMW_BO_DOMAIN_MOB, VMW_BO_DOMAIN_MOB);
 ret = vmw_validation_add_bo(sw_context->ctx, vmw_bo);
 tmp_bo = vmw_bo;
 vmw_user_bo_unref(&tmp_bo);
 if (unlikely(ret != 0))
  return ret;

 reloc = vmw_validation_mem_alloc(sw_context->ctx, sizeof(*reloc));
 if (!reloc)
  return -ENOMEM;

 reloc->mob_loc = id;
 reloc->vbo = vmw_bo;

 *vmw_bo_p = vmw_bo;
 list_add_tail(&reloc->head, &sw_context->bo_relocations);

 return 0;
}

/**
 * vmw_translate_guest_ptr - Prepare to translate a user-space buffer handle
 * to a valid SVGAGuestPtr
 *
 * @dev_priv: Pointer to a device private structure.
 * @sw_context: The software context used for this command batch validation.
 * @ptr: Pointer to the user-space handle to be translated.
 * @vmw_bo_p: Points to a location that, on successful return will carry a
 * non-reference-counted pointer to the DMA buffer identified by the user-space
 * handle in @id.
 *
 * This function saves information needed to translate a user-space buffer
 * handle to a valid SVGAGuestPtr. The translation does not take place
 * immediately, but during a call to vmw_apply_relocations().
 *
 * This function builds a relocation list and a list of buffers to validate.
 * The former needs to be freed using either vmw_apply_relocations() or
 * vmw_free_relocations(). The latter needs to be freed using
 * vmw_clear_validations.
 */

static int vmw_translate_guest_ptr(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       SVGAGuestPtr *ptr,
       struct vmw_bo **vmw_bo_p)
{
 struct vmw_bo *vmw_bo, *tmp_bo;
 uint32_t handle = ptr->gmrId;
 struct vmw_relocation *reloc;
 int ret;

 vmw_validation_preload_bo(sw_context->ctx);
 ret = vmw_user_bo_lookup(sw_context->filp, handle, &vmw_bo);
 if (ret != 0) {
  drm_dbg(&dev_priv->drm, "Could not find or use GMR region.\n");
  return PTR_ERR(vmw_bo);
 }
 vmw_bo_placement_set(vmw_bo, VMW_BO_DOMAIN_GMR | VMW_BO_DOMAIN_VRAM,
        VMW_BO_DOMAIN_GMR | VMW_BO_DOMAIN_VRAM);
 ret = vmw_validation_add_bo(sw_context->ctx, vmw_bo);
 tmp_bo = vmw_bo;
 vmw_user_bo_unref(&tmp_bo);
 if (unlikely(ret != 0))
  return ret;

 reloc = vmw_validation_mem_alloc(sw_context->ctx, sizeof(*reloc));
 if (!reloc)
  return -ENOMEM;

 reloc->location = ptr;
 reloc->vbo = vmw_bo;
 *vmw_bo_p = vmw_bo;
 list_add_tail(&reloc->head, &sw_context->bo_relocations);

 return 0;
}

/**
 * vmw_cmd_dx_define_query - validate SVGA_3D_CMD_DX_DEFINE_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 *
 * This function adds the new query into the query COTABLE
 */

static int vmw_cmd_dx_define_query(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXDefineQuery);
 struct vmw_ctx_validation_info *ctx_node = VMW_GET_CTX_NODE(sw_context);
 struct vmw_resource *cotable_res;
 int ret;

 if (!ctx_node)
  return -EINVAL;

 cmd = container_of(header, typeof(*cmd), header);

 if (cmd->body.type <  SVGA3D_QUERYTYPE_MIN ||
     cmd->body.type >= SVGA3D_QUERYTYPE_MAX)
  return -EINVAL;

 cotable_res = vmw_context_cotable(ctx_node->ctx, SVGA_COTABLE_DXQUERY);
 if (IS_ERR_OR_NULL(cotable_res))
  return cotable_res ? PTR_ERR(cotable_res) : -EINVAL;
 ret = vmw_cotable_notify(cotable_res, cmd->body.queryId);

 return ret;
}

/**
 * vmw_cmd_dx_bind_query - validate SVGA_3D_CMD_DX_BIND_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 *
 * The query bind operation will eventually associate the query ID with its
 * backing MOB.  In this function, we take the user mode MOB ID and use
 * vmw_translate_mob_ptr() to translate it to its kernel mode equivalent.
 */

static int vmw_cmd_dx_bind_query(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXBindQuery);
 struct vmw_bo *vmw_bo;
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 /*
 * Look up the buffer pointed to by q.mobid, put it on the relocation
 * list so its kernel mode MOB ID can be filled in later
 */

 ret = vmw_translate_mob_ptr(dev_priv, sw_context, &cmd->body.mobid,
        &vmw_bo);

 if (ret != 0)
  return ret;

 sw_context->dx_query_mob = vmw_bo;
 sw_context->dx_query_ctx = sw_context->dx_ctx_node->ctx;
 return 0;
}

/**
 * vmw_cmd_begin_gb_query - validate SVGA_3D_CMD_BEGIN_GB_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_begin_gb_query(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdBeginGBQuery) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
     VMW_RES_DIRTY_SET, user_context_converter,
     &cmd->body.cid, NULL);
}

/**
 * vmw_cmd_begin_query - validate SVGA_3D_CMD_BEGIN_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_begin_query(struct vmw_private *dev_priv,
          struct vmw_sw_context *sw_context,
          SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdBeginQuery) =
  container_of(header, typeof(*cmd), header);

 if (unlikely(dev_priv->has_mob)) {
  VMW_DECLARE_CMD_VAR(gb_cmd, SVGA3dCmdBeginGBQuery);

  BUG_ON(sizeof(gb_cmd) != sizeof(*cmd));

  gb_cmd.header.id = SVGA_3D_CMD_BEGIN_GB_QUERY;
  gb_cmd.header.size = cmd->header.size;
  gb_cmd.body.cid = cmd->body.cid;
  gb_cmd.body.type = cmd->body.type;

  memcpy(cmd, &gb_cmd, sizeof(*cmd));
  return vmw_cmd_begin_gb_query(dev_priv, sw_context, header);
 }

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
     VMW_RES_DIRTY_SET, user_context_converter,
     &cmd->body.cid, NULL);
}

/**
 * vmw_cmd_end_gb_query - validate SVGA_3D_CMD_END_GB_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_end_gb_query(struct vmw_private *dev_priv,
    struct vmw_sw_context *sw_context,
    SVGA3dCmdHeader *header)
{
 struct vmw_bo *vmw_bo;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdEndGBQuery);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_cid_check(dev_priv, sw_context, header);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_translate_mob_ptr(dev_priv, sw_context, &cmd->body.mobid,
        &vmw_bo);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_query_bo_switch_prepare(dev_priv, vmw_bo, sw_context);

 return ret;
}

/**
 * vmw_cmd_end_query - validate SVGA_3D_CMD_END_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_end_query(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 struct vmw_bo *vmw_bo;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdEndQuery);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 if (dev_priv->has_mob) {
  VMW_DECLARE_CMD_VAR(gb_cmd, SVGA3dCmdEndGBQuery);

  BUG_ON(sizeof(gb_cmd) != sizeof(*cmd));

  gb_cmd.header.id = SVGA_3D_CMD_END_GB_QUERY;
  gb_cmd.header.size = cmd->header.size;
  gb_cmd.body.cid = cmd->body.cid;
  gb_cmd.body.type = cmd->body.type;
  gb_cmd.body.mobid = cmd->body.guestResult.gmrId;
  gb_cmd.body.offset = cmd->body.guestResult.offset;

  memcpy(cmd, &gb_cmd, sizeof(*cmd));
  return vmw_cmd_end_gb_query(dev_priv, sw_context, header);
 }

 ret = vmw_cmd_cid_check(dev_priv, sw_context, header);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_translate_guest_ptr(dev_priv, sw_context,
          &cmd->body.guestResult, &vmw_bo);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_query_bo_switch_prepare(dev_priv, vmw_bo, sw_context);

 return ret;
}

/**
 * vmw_cmd_wait_gb_query - validate SVGA_3D_CMD_WAIT_GB_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_wait_gb_query(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGA3dCmdHeader *header)
{
 struct vmw_bo *vmw_bo;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdWaitForGBQuery);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_cid_check(dev_priv, sw_context, header);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_translate_mob_ptr(dev_priv, sw_context, &cmd->body.mobid,
        &vmw_bo);
 if (unlikely(ret != 0))
  return ret;

 return 0;
}

/**
 * vmw_cmd_wait_query - validate SVGA_3D_CMD_WAIT_QUERY command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context used for this command submission.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_wait_query(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 struct vmw_bo *vmw_bo;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdWaitForQuery);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);
 if (dev_priv->has_mob) {
  VMW_DECLARE_CMD_VAR(gb_cmd, SVGA3dCmdWaitForGBQuery);

  BUG_ON(sizeof(gb_cmd) != sizeof(*cmd));

  gb_cmd.header.id = SVGA_3D_CMD_WAIT_FOR_GB_QUERY;
  gb_cmd.header.size = cmd->header.size;
  gb_cmd.body.cid = cmd->body.cid;
  gb_cmd.body.type = cmd->body.type;
  gb_cmd.body.mobid = cmd->body.guestResult.gmrId;
  gb_cmd.body.offset = cmd->body.guestResult.offset;

  memcpy(cmd, &gb_cmd, sizeof(*cmd));
  return vmw_cmd_wait_gb_query(dev_priv, sw_context, header);
 }

 ret = vmw_cmd_cid_check(dev_priv, sw_context, header);
 if (unlikely(ret != 0))
  return ret;

 ret = vmw_translate_guest_ptr(dev_priv, sw_context,
          &cmd->body.guestResult, &vmw_bo);
 if (unlikely(ret != 0))
  return ret;

 return 0;
}

static int vmw_cmd_dma(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 struct vmw_bo *vmw_bo = NULL;
 struct vmw_resource *res;
 struct vmw_surface *srf = NULL;
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSurfaceDMA);
 int ret;
 SVGA3dCmdSurfaceDMASuffix *suffix;
 uint32_t bo_size;
 bool dirty;

 cmd = container_of(header, typeof(*cmd), header);
 suffix = (SVGA3dCmdSurfaceDMASuffix *)((unsigned long) &cmd->body +
            header->size - sizeof(*suffix));

 /* Make sure device and verifier stays in sync. */
 if (unlikely(suffix->suffixSize != sizeof(*suffix))) {
  VMW_DEBUG_USER("Invalid DMA suffix size.\n");
  return -EINVAL;
 }

 ret = vmw_translate_guest_ptr(dev_priv, sw_context,
          &cmd->body.guest.ptr, &vmw_bo);
 if (unlikely(ret != 0))
  return ret;

 /* Make sure DMA doesn't cross BO boundaries. */
 bo_size = vmw_bo->tbo.base.size;
 if (unlikely(cmd->body.guest.ptr.offset > bo_size)) {
  VMW_DEBUG_USER("Invalid DMA offset.\n");
  return -EINVAL;
 }

 bo_size -= cmd->body.guest.ptr.offset;
 if (unlikely(suffix->maximumOffset > bo_size))
  suffix->maximumOffset = bo_size;

 dirty = (cmd->body.transfer == SVGA3D_WRITE_HOST_VRAM) ?
  VMW_RES_DIRTY_SET : 0;
 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface, dirty,
    user_surface_converter, &cmd->body.host.sid,
    NULL);
 if (unlikely(ret != 0)) {
  if (unlikely(ret != -ERESTARTSYS))
   VMW_DEBUG_USER("could not find surface for DMA.\n");
  return ret;
 }

 res = sw_context->res_cache[vmw_res_surface].res;
 if (!res) {
  VMW_DEBUG_USER("Invalid DMA surface.\n");
  return -EINVAL;
 }

 srf = vmw_res_to_srf(res);
 vmw_kms_cursor_snoop(srf, sw_context->fp->tfile, &vmw_bo->tbo,
        header);

 return 0;
}

static int vmw_cmd_draw(struct vmw_private *dev_priv,
   struct vmw_sw_context *sw_context,
   SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDrawPrimitives);
 SVGA3dVertexDecl *decl = (SVGA3dVertexDecl *)(
  (unsigned long)header + sizeof(*cmd));
 SVGA3dPrimitiveRange *range;
 uint32_t i;
 uint32_t maxnum;
 int ret;

 ret = vmw_cmd_cid_check(dev_priv, sw_context, header);
 if (unlikely(ret != 0))
  return ret;

 cmd = container_of(header, typeof(*cmd), header);
 maxnum = (header->size - sizeof(cmd->body)) / sizeof(*decl);

 if (unlikely(cmd->body.numVertexDecls > maxnum)) {
  VMW_DEBUG_USER("Illegal number of vertex declarations.\n");
  return -EINVAL;
 }

 for (i = 0; i < cmd->body.numVertexDecls; ++i, ++decl) {
  ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE,
     user_surface_converter,
     &decl->array.surfaceId, NULL);
  if (unlikely(ret != 0))
   return ret;
 }

 maxnum = (header->size - sizeof(cmd->body) -
    cmd->body.numVertexDecls * sizeof(*decl)) / sizeof(*range);
 if (unlikely(cmd->body.numRanges > maxnum)) {
  VMW_DEBUG_USER("Illegal number of index ranges.\n");
  return -EINVAL;
 }

 range = (SVGA3dPrimitiveRange *) decl;
 for (i = 0; i < cmd->body.numRanges; ++i, ++range) {
  ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE,
     user_surface_converter,
     &range->indexArray.surfaceId, NULL);
  if (unlikely(ret != 0))
   return ret;
 }
 return 0;
}

static int vmw_cmd_tex_state(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSetTextureState);
 SVGA3dTextureState *last_state = (SVGA3dTextureState *)
   ((unsigned long) header + header->size + sizeof(*header));
 SVGA3dTextureState *cur_state = (SVGA3dTextureState *)
  ((unsigned long) header + sizeof(*cmd));
 struct vmw_resource *ctx;
 struct vmw_resource *res;
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, &ctx);
 if (unlikely(ret != 0))
  return ret;

 for (; cur_state < last_state; ++cur_state) {
  if (likely(cur_state->name != SVGA3D_TS_BIND_TEXTURE))
   continue;

  if (cur_state->stage >= SVGA3D_NUM_TEXTURE_UNITS) {
   VMW_DEBUG_USER("Illegal texture/sampler unit %u.\n",
           (unsigned int) cur_state->stage);
   return -EINVAL;
  }

  ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE,
     user_surface_converter,
     &cur_state->value, &res);
  if (unlikely(ret != 0))
   return ret;

  if (dev_priv->has_mob) {
   struct vmw_ctx_bindinfo_tex binding;
   struct vmw_ctx_validation_info *node;

   node = vmw_execbuf_info_from_res(sw_context, ctx);
   if (!node)
    return -EINVAL;

   binding.bi.ctx = ctx;
   binding.bi.res = res;
   binding.bi.bt = vmw_ctx_binding_tex;
   binding.texture_stage = cur_state->stage;
   vmw_binding_add(node->staged, &binding.bi, 0,
     binding.texture_stage);
  }
 }

 return 0;
}

static int vmw_cmd_check_define_gmrfb(struct vmw_private *dev_priv,
          struct vmw_sw_context *sw_context,
          void *buf)
{
 struct vmw_bo *vmw_bo;

 struct {
  uint32_t header;
  SVGAFifoCmdDefineGMRFB body;
 } *cmd = buf;

 return vmw_translate_guest_ptr(dev_priv, sw_context, &cmd->body.ptr,
           &vmw_bo);
}

/**
 * vmw_cmd_res_switch_backup - Utility function to handle backup buffer
 * switching
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @res: Pointer to the resource.
 * @buf_id: Pointer to the user-space backup buffer handle in the command
 * stream.
 * @backup_offset: Offset of backup into MOB.
 *
 * This function prepares for registering a switch of backup buffers in the
 * resource metadata just prior to unreserving. It's basically a wrapper around
 * vmw_cmd_res_switch_backup with a different interface.
 */

static int vmw_cmd_res_switch_backup(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         struct vmw_resource *res, uint32_t *buf_id,
         unsigned long backup_offset)
{
 struct vmw_bo *vbo;
 void *info;
 int ret;

 info = vmw_execbuf_info_from_res(sw_context, res);
 if (!info)
  return -EINVAL;

 ret = vmw_translate_mob_ptr(dev_priv, sw_context, buf_id, &vbo);
 if (ret)
  return ret;

 vmw_validation_res_switch_backup(sw_context->ctx, info, vbo,
      backup_offset);
 return 0;
}

/**
 * vmw_cmd_switch_backup - Utility function to handle backup buffer switching
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @res_type: The resource type.
 * @converter: Information about user-space binding for this resource type.
 * @res_id: Pointer to the user-space resource handle in the command stream.
 * @buf_id: Pointer to the user-space backup buffer handle in the command
 * stream.
 * @backup_offset: Offset of backup into MOB.
 *
 * This function prepares for registering a switch of backup buffers in the
 * resource metadata just prior to unreserving. It's basically a wrapper around
 * vmw_cmd_res_switch_backup with a different interface.
 */

static int vmw_cmd_switch_backup(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     enum vmw_res_type res_type,
     const struct vmw_user_resource_conv
     *converter, uint32_t *res_id, uint32_t *buf_id,
     unsigned long backup_offset)
{
 struct vmw_resource *res;
 int ret;

 ret = vmw_cmd_res_check(dev_priv, sw_context, res_type,
    VMW_RES_DIRTY_NONE, converter, res_id, &res);
 if (ret)
  return ret;

 return vmw_cmd_res_switch_backup(dev_priv, sw_context, res, buf_id,
      backup_offset);
}

/**
 * vmw_cmd_bind_gb_surface - Validate SVGA_3D_CMD_BIND_GB_SURFACE command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_bind_gb_surface(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdBindGBSurface) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_switch_backup(dev_priv, sw_context, vmw_res_surface,
         user_surface_converter, &cmd->body.sid,
         &cmd->body.mobid, 0);
}

/**
 * vmw_cmd_update_gb_image - Validate SVGA_3D_CMD_UPDATE_GB_IMAGE command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_update_gb_image(struct vmw_private *dev_priv,
       struct vmw_sw_context *sw_context,
       SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdUpdateGBImage) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE, user_surface_converter,
     &cmd->body.image.sid, NULL);
}

/**
 * vmw_cmd_update_gb_surface - Validate SVGA_3D_CMD_UPDATE_GB_SURFACE command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_update_gb_surface(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdUpdateGBSurface) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_CLEAR, user_surface_converter,
     &cmd->body.sid, NULL);
}

/**
 * vmw_cmd_readback_gb_image - Validate SVGA_3D_CMD_READBACK_GB_IMAGE command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_readback_gb_image(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdReadbackGBImage) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE, user_surface_converter,
     &cmd->body.image.sid, NULL);
}

/**
 * vmw_cmd_readback_gb_surface - Validate SVGA_3D_CMD_READBACK_GB_SURFACE
 * command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_readback_gb_surface(struct vmw_private *dev_priv,
           struct vmw_sw_context *sw_context,
           SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdReadbackGBSurface) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_CLEAR, user_surface_converter,
     &cmd->body.sid, NULL);
}

/**
 * vmw_cmd_invalidate_gb_image - Validate SVGA_3D_CMD_INVALIDATE_GB_IMAGE
 * command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_invalidate_gb_image(struct vmw_private *dev_priv,
           struct vmw_sw_context *sw_context,
           SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdInvalidateGBImage) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_NONE, user_surface_converter,
     &cmd->body.image.sid, NULL);
}

/**
 * vmw_cmd_invalidate_gb_surface - Validate SVGA_3D_CMD_INVALIDATE_GB_SURFACE
 * command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_invalidate_gb_surface(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdInvalidateGBSurface) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
     VMW_RES_DIRTY_CLEAR, user_surface_converter,
     &cmd->body.sid, NULL);
}

/**
 * vmw_cmd_shader_define - Validate SVGA_3D_CMD_SHADER_DEFINE command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_shader_define(struct vmw_private *dev_priv,
     struct vmw_sw_context *sw_context,
     SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDefineShader);
 int ret;
 size_t size;
 struct vmw_resource *ctx;

 cmd = container_of(header, typeof(*cmd), header);

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, &ctx);
 if (unlikely(ret != 0))
  return ret;

 if (unlikely(!dev_priv->has_mob))
  return 0;

 size = cmd->header.size - sizeof(cmd->body);
 ret = vmw_compat_shader_add(dev_priv, vmw_context_res_man(ctx),
        cmd->body.shid, cmd + 1, cmd->body.type,
        size, &sw_context->staged_cmd_res);
 if (unlikely(ret != 0))
  return ret;

 return vmw_resource_relocation_add(sw_context, NULL,
        vmw_ptr_diff(sw_context->buf_start,
       &cmd->header.id),
        vmw_res_rel_nop);
}

/**
 * vmw_cmd_shader_destroy - Validate SVGA_3D_CMD_SHADER_DESTROY command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_shader_destroy(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDestroyShader);
 int ret;
 struct vmw_resource *ctx;

 cmd = container_of(header, typeof(*cmd), header);

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, &ctx);
 if (unlikely(ret != 0))
  return ret;

 if (unlikely(!dev_priv->has_mob))
  return 0;

 ret = vmw_shader_remove(vmw_context_res_man(ctx), cmd->body.shid,
    cmd->body.type, &sw_context->staged_cmd_res);
 if (unlikely(ret != 0))
  return ret;

 return vmw_resource_relocation_add(sw_context, NULL,
        vmw_ptr_diff(sw_context->buf_start,
       &cmd->header.id),
        vmw_res_rel_nop);
}

/**
 * vmw_cmd_set_shader - Validate SVGA_3D_CMD_SET_SHADER command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_set_shader(struct vmw_private *dev_priv,
         struct vmw_sw_context *sw_context,
         SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSetShader);
 struct vmw_ctx_bindinfo_shader binding;
 struct vmw_resource *ctx, *res = NULL;
 struct vmw_ctx_validation_info *ctx_info;
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 if (!vmw_shadertype_is_valid(VMW_SM_LEGACY, cmd->body.type)) {
  VMW_DEBUG_USER("Illegal shader type %u.\n",
          (unsigned int) cmd->body.type);
  return -EINVAL;
 }

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, &ctx);
 if (unlikely(ret != 0))
  return ret;

 if (!dev_priv->has_mob)
  return 0;

 if (cmd->body.shid != SVGA3D_INVALID_ID) {
  /*
 * This is the compat shader path - Per device guest-backed
 * shaders, but user-space thinks it's per context host-
 * backed shaders.
 */

  res = vmw_shader_lookup(vmw_context_res_man(ctx),
     cmd->body.shid, cmd->body.type);
  if (!IS_ERR(res)) {
   ret = vmw_execbuf_res_val_add(sw_context, res,
            VMW_RES_DIRTY_NONE,
            vmw_val_add_flag_noctx);
   if (unlikely(ret != 0))
    return ret;

   ret = vmw_resource_relocation_add
    (sw_context, res,
     vmw_ptr_diff(sw_context->buf_start,
           &cmd->body.shid),
     vmw_res_rel_normal);
   if (unlikely(ret != 0))
    return ret;
  }
 }

 if (IS_ERR_OR_NULL(res)) {
  ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_shader,
     VMW_RES_DIRTY_NONE,
     user_shader_converter, &cmd->body.shid,
     &res);
  if (unlikely(ret != 0))
   return ret;
 }

 ctx_info = vmw_execbuf_info_from_res(sw_context, ctx);
 if (!ctx_info)
  return -EINVAL;

 binding.bi.ctx = ctx;
 binding.bi.res = res;
 binding.bi.bt = vmw_ctx_binding_shader;
 binding.shader_slot = cmd->body.type - SVGA3D_SHADERTYPE_MIN;
 vmw_binding_add(ctx_info->staged, &binding.bi, binding.shader_slot, 0);

 return 0;
}

/**
 * vmw_cmd_set_shader_const - Validate SVGA_3D_CMD_SET_SHADER_CONST command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_set_shader_const(struct vmw_private *dev_priv,
        struct vmw_sw_context *sw_context,
        SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdSetShaderConst);
 int ret;

 cmd = container_of(header, typeof(*cmd), header);

 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_context,
    VMW_RES_DIRTY_SET, user_context_converter,
    &cmd->body.cid, NULL);
 if (unlikely(ret != 0))
  return ret;

 if (dev_priv->has_mob)
  header->id = SVGA_3D_CMD_SET_GB_SHADERCONSTS_INLINE;

 return 0;
}

/**
 * vmw_cmd_bind_gb_shader - Validate SVGA_3D_CMD_BIND_GB_SHADER command
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int vmw_cmd_bind_gb_shader(struct vmw_private *dev_priv,
      struct vmw_sw_context *sw_context,
      SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdBindGBShader) =
  container_of(header, typeof(*cmd), header);

 return vmw_cmd_switch_backup(dev_priv, sw_context, vmw_res_shader,
         user_shader_converter, &cmd->body.shid,
         &cmd->body.mobid, cmd->body.offsetInBytes);
}

/**
 * vmw_cmd_dx_set_single_constant_buffer - Validate
 * SVGA_3D_CMD_DX_SET_SINGLE_CONSTANT_BUFFER command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int
vmw_cmd_dx_set_single_constant_buffer(struct vmw_private *dev_priv,
          struct vmw_sw_context *sw_context,
          SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXSetSingleConstantBuffer);

 struct vmw_resource *res = NULL;
 struct vmw_ctx_validation_info *ctx_node = VMW_GET_CTX_NODE(sw_context);
 struct vmw_ctx_bindinfo_cb binding;
 int ret;

 if (!ctx_node)
  return -EINVAL;

 cmd = container_of(header, typeof(*cmd), header);
 ret = vmw_cmd_res_check(dev_priv, sw_context, vmw_res_surface,
    VMW_RES_DIRTY_NONE, user_surface_converter,
    &cmd->body.sid, &res);
 if (unlikely(ret != 0))
  return ret;

 if (!vmw_shadertype_is_valid(dev_priv->sm_type, cmd->body.type) ||
     cmd->body.slot >= SVGA3D_DX_MAX_CONSTBUFFERS) {
  VMW_DEBUG_USER("Illegal const buffer shader %u slot %u.\n",
          (unsigned int) cmd->body.type,
          (unsigned int) cmd->body.slot);
  return -EINVAL;
 }

 binding.bi.ctx = ctx_node->ctx;
 binding.bi.res = res;
 binding.bi.bt = vmw_ctx_binding_cb;
 binding.shader_slot = cmd->body.type - SVGA3D_SHADERTYPE_MIN;
 binding.offset = cmd->body.offsetInBytes;
 binding.size = cmd->body.sizeInBytes;
 binding.slot = cmd->body.slot;

 vmw_binding_add(ctx_node->staged, &binding.bi, binding.shader_slot,
   binding.slot);

 return 0;
}

/**
 * vmw_cmd_dx_set_constant_buffer_offset - Validate
 * SVGA_3D_CMD_DX_SET_VS/PS/GS/HS/DS/CS_CONSTANT_BUFFER_OFFSET command.
 *
 * @dev_priv: Pointer to a device private struct.
 * @sw_context: The software context being used for this batch.
 * @header: Pointer to the command header in the command stream.
 */

static int
vmw_cmd_dx_set_constant_buffer_offset(struct vmw_private *dev_priv,
          struct vmw_sw_context *sw_context,
          SVGA3dCmdHeader *header)
{
 VMW_DECLARE_CMD_VAR(*cmd, SVGA3dCmdDXSetConstantBufferOffset);

 struct vmw_ctx_validation_info *ctx_node = VMW_GET_CTX_NODE(sw_context);
 u32 shader_slot;

 if (!has_sm5_context(dev_priv))
  return -EINVAL;

 if (!ctx_node)
  return -EINVAL;

 cmd = container_of(header, typeof(*cmd), header);
 if (cmd->body.slot >= SVGA3D_DX_MAX_CONSTBUFFERS) {
  VMW_DEBUG_USER("Illegal const buffer slot %u.\n",
          (unsigned int) cmd->body.slot);
  return -EINVAL;
 }

 shader_slot = cmd->header.id - SVGA_3D_CMD_DX_SET_VS_CONSTANT_BUFFER_OFFSET;
 vmw_binding_cb_offset_update(ctx_node->staged, shader_slot,
         cmd->body.slot, cmd->body.offsetInBytes);

 return 0;
}

/**
 * vmw_cmd_dx_set_shader_res - Validate SVGA_3D_CMD_DX_SET_SHADER_RESOURCES
 * command
 *
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=96 H=98 G=96

¤ Dauer der Verarbeitung: 0.30 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....
    

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge