Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


Quelle  bfa_ioc.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-only
/*
 * Copyright (c) 2005-2014 Brocade Communications Systems, Inc.
 * Copyright (c) 2014- QLogic Corporation.
 * All rights reserved
 * www.qlogic.com
 *
 * Linux driver for QLogic BR-series Fibre Channel Host Bus Adapter.
 */


#include "bfad_drv.h"
#include "bfad_im.h"
#include "bfa_ioc.h"
#include "bfi_reg.h"
#include "bfa_defs.h"
#include "bfa_defs_svc.h"
#include "bfi.h"

BFA_TRC_FILE(CNA, IOC);

/*
 * IOC local definitions
 */

#define BFA_IOC_TOV  3000 /* msecs */
#define BFA_IOC_HWSEM_TOV 500 /* msecs */
#define BFA_IOC_HB_TOV  500 /* msecs */
#define BFA_IOC_TOV_RECOVER  BFA_IOC_HB_TOV
#define BFA_IOC_POLL_TOV BFA_TIMER_FREQ

#define bfa_ioc_timer_start(__ioc)     \
 bfa_timer_begin((__ioc)->timer_mod, &(__ioc)->ioc_timer, \
   bfa_ioc_timeout, (__ioc), BFA_IOC_TOV)
#define bfa_ioc_timer_stop(__ioc)   bfa_timer_stop(&(__ioc)->ioc_timer)

#define bfa_hb_timer_start(__ioc)     \
 bfa_timer_begin((__ioc)->timer_mod, &(__ioc)->hb_timer,  \
   bfa_ioc_hb_check, (__ioc), BFA_IOC_HB_TOV)
#define bfa_hb_timer_stop(__ioc) bfa_timer_stop(&(__ioc)->hb_timer)

#define BFA_DBG_FWTRC_OFF(_fn) (BFI_IOC_TRC_OFF + BFA_DBG_FWTRC_LEN * (_fn))

#define bfa_ioc_state_disabled(__sm)  \
 (((__sm) == BFI_IOC_UNINIT) ||  \
 ((__sm) == BFI_IOC_INITING) ||  \
 ((__sm) == BFI_IOC_HWINIT) ||  \
 ((__sm) == BFI_IOC_DISABLED) ||  \
 ((__sm) == BFI_IOC_FAIL) ||  \
 ((__sm) == BFI_IOC_CFG_DISABLED))

/*
 * Asic specific macros : see bfa_hw_cb.c and bfa_hw_ct.c for details.
 */


#define bfa_ioc_firmware_lock(__ioc)   \
   ((__ioc)->ioc_hwif->ioc_firmware_lock(__ioc))
#define bfa_ioc_firmware_unlock(__ioc)   \
   ((__ioc)->ioc_hwif->ioc_firmware_unlock(__ioc))
#define bfa_ioc_reg_init(__ioc) ((__ioc)->ioc_hwif->ioc_reg_init(__ioc))
#define bfa_ioc_map_port(__ioc) ((__ioc)->ioc_hwif->ioc_map_port(__ioc))
#define bfa_ioc_notify_fail(__ioc)              \
   ((__ioc)->ioc_hwif->ioc_notify_fail(__ioc))
#define bfa_ioc_sync_start(__ioc)               \
   ((__ioc)->ioc_hwif->ioc_sync_start(__ioc))
#define bfa_ioc_sync_join(__ioc)                \
   ((__ioc)->ioc_hwif->ioc_sync_join(__ioc))
#define bfa_ioc_sync_leave(__ioc)               \
   ((__ioc)->ioc_hwif->ioc_sync_leave(__ioc))
#define bfa_ioc_sync_ack(__ioc)                 \
   ((__ioc)->ioc_hwif->ioc_sync_ack(__ioc))
#define bfa_ioc_sync_complete(__ioc)            \
   ((__ioc)->ioc_hwif->ioc_sync_complete(__ioc))
#define bfa_ioc_set_cur_ioc_fwstate(__ioc, __fwstate)  \
   ((__ioc)->ioc_hwif->ioc_set_fwstate(__ioc, __fwstate))
#define bfa_ioc_get_cur_ioc_fwstate(__ioc)  \
   ((__ioc)->ioc_hwif->ioc_get_fwstate(__ioc))
#define bfa_ioc_set_alt_ioc_fwstate(__ioc, __fwstate)  \
  ((__ioc)->ioc_hwif->ioc_set_alt_fwstate(__ioc, __fwstate))
#define bfa_ioc_get_alt_ioc_fwstate(__ioc)  \
   ((__ioc)->ioc_hwif->ioc_get_alt_fwstate(__ioc))

#define bfa_ioc_mbox_cmd_pending(__ioc)  \
   (!list_empty(&((__ioc)->mbox_mod.cmd_q)) || \
   readl((__ioc)->ioc_regs.hfn_mbox_cmd))

bfa_boolean_t bfa_auto_recover = BFA_TRUE;

/*
 * forward declarations
 */

static void bfa_ioc_hw_sem_get(struct bfa_ioc_s *ioc);
static void bfa_ioc_hwinit(struct bfa_ioc_s *ioc, bfa_boolean_t force);
static void bfa_ioc_timeout(void *ioc);
static void bfa_ioc_poll_fwinit(struct bfa_ioc_s *ioc);
static void bfa_ioc_send_enable(struct bfa_ioc_s *ioc);
static void bfa_ioc_send_disable(struct bfa_ioc_s *ioc);
static void bfa_ioc_send_getattr(struct bfa_ioc_s *ioc);
static void bfa_ioc_hb_monitor(struct bfa_ioc_s *ioc);
static void bfa_ioc_mbox_poll(struct bfa_ioc_s *ioc);
static void bfa_ioc_mbox_flush(struct bfa_ioc_s *ioc);
static void bfa_ioc_recover(struct bfa_ioc_s *ioc);
static void bfa_ioc_event_notify(struct bfa_ioc_s *ioc ,
    enum bfa_ioc_event_e event);
static void bfa_ioc_disable_comp(struct bfa_ioc_s *ioc);
static void bfa_ioc_lpu_stop(struct bfa_ioc_s *ioc);
static void bfa_ioc_fail_notify(struct bfa_ioc_s *ioc);
static void bfa_ioc_pf_fwmismatch(struct bfa_ioc_s *ioc);
static enum bfi_ioc_img_ver_cmp_e bfa_ioc_fw_ver_patch_cmp(
    struct bfi_ioc_image_hdr_s *base_fwhdr,
    struct bfi_ioc_image_hdr_s *fwhdr_to_cmp);
static enum bfi_ioc_img_ver_cmp_e bfa_ioc_flash_fwver_cmp(
    struct bfa_ioc_s *ioc,
    struct bfi_ioc_image_hdr_s *base_fwhdr);

/*
 * IOC state machine definitions/declarations
 */

bfa_fsm_state_decl(bfa_ioc, uninit, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, reset, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, enabling, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, getattr, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, op, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, fail_retry, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, fail, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, disabling, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, disabled, struct bfa_ioc_s, enum ioc_event);
bfa_fsm_state_decl(bfa_ioc, hwfail, struct bfa_ioc_s, enum ioc_event);

struct bfa_ioc_sm_table {
 bfa_ioc_sm_t sm;  /*  state machine function */
 enum bfa_ioc_state state; /*  state machine encoding */
 char  *name;  /*  state name for display */
};

static struct bfa_ioc_sm_table ioc_sm_table[] = {
 {BFA_SM(bfa_ioc_sm_uninit), BFA_IOC_UNINIT},
 {BFA_SM(bfa_ioc_sm_reset), BFA_IOC_RESET},
 {BFA_SM(bfa_ioc_sm_enabling), BFA_IOC_ENABLING},
 {BFA_SM(bfa_ioc_sm_getattr), BFA_IOC_GETATTR},
 {BFA_SM(bfa_ioc_sm_op), BFA_IOC_OPERATIONAL},
 {BFA_SM(bfa_ioc_sm_fail_retry), BFA_IOC_INITFAIL},
 {BFA_SM(bfa_ioc_sm_fail), BFA_IOC_FAIL},
 {BFA_SM(bfa_ioc_sm_disabling), BFA_IOC_DISABLING},
 {BFA_SM(bfa_ioc_sm_disabled), BFA_IOC_DISABLED},
 {BFA_SM(bfa_ioc_sm_hwfail), BFA_IOC_HWFAIL},
};

static inline enum bfa_ioc_state
bfa_ioc_sm_to_state(struct bfa_ioc_sm_table *smt, bfa_ioc_sm_t sm)
{
 int i = 0;

 while (smt[i].sm && smt[i].sm != sm)
  i++;
 return smt[i].state;
}

/*
 * IOCPF state machine definitions/declarations
 */


#define bfa_iocpf_timer_start(__ioc)     \
 bfa_timer_begin((__ioc)->timer_mod, &(__ioc)->ioc_timer, \
   bfa_iocpf_timeout, (__ioc), BFA_IOC_TOV)
#define bfa_iocpf_timer_stop(__ioc) bfa_timer_stop(&(__ioc)->ioc_timer)

#define bfa_iocpf_poll_timer_start(__ioc)    \
 bfa_timer_begin((__ioc)->timer_mod, &(__ioc)->ioc_timer, \
   bfa_iocpf_poll_timeout, (__ioc), BFA_IOC_POLL_TOV)

#define bfa_sem_timer_start(__ioc)     \
 bfa_timer_begin((__ioc)->timer_mod, &(__ioc)->sem_timer, \
   bfa_iocpf_sem_timeout, (__ioc), BFA_IOC_HWSEM_TOV)
#define bfa_sem_timer_stop(__ioc) bfa_timer_stop(&(__ioc)->sem_timer)

/*
 * Forward declareations for iocpf state machine
 */

static void bfa_iocpf_timeout(void *ioc_arg);
static void bfa_iocpf_sem_timeout(void *ioc_arg);
static void bfa_iocpf_poll_timeout(void *ioc_arg);

/*
 * IOCPF states
 */

enum bfa_iocpf_state {
 BFA_IOCPF_RESET  = 1, /*  IOC is in reset state */
 BFA_IOCPF_SEMWAIT = 2, /*  Waiting for IOC h/w semaphore */
 BFA_IOCPF_HWINIT = 3, /*  IOC h/w is being initialized */
 BFA_IOCPF_READY  = 4, /*  IOCPF is initialized */
 BFA_IOCPF_INITFAIL = 5, /*  IOCPF failed */
 BFA_IOCPF_FAIL  = 6, /*  IOCPF failed */
 BFA_IOCPF_DISABLING = 7, /*  IOCPF is being disabled */
 BFA_IOCPF_DISABLED = 8, /*  IOCPF is disabled */
 BFA_IOCPF_FWMISMATCH = 9, /*  IOC f/w different from drivers */
};

bfa_fsm_state_decl(bfa_iocpf, reset, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, fwcheck, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, mismatch, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, semwait, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, hwinit, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, enabling, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, ready, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, initfail_sync, struct bfa_iocpf_s,
      enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, initfail, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, fail_sync, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, fail, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, disabling, struct bfa_iocpf_s, enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, disabling_sync, struct bfa_iocpf_s,
      enum iocpf_event);
bfa_fsm_state_decl(bfa_iocpf, disabled, struct bfa_iocpf_s, enum iocpf_event);

struct bfa_iocpf_sm_table {
 bfa_iocpf_sm_t sm;  /*  state machine function */
 enum bfa_iocpf_state state; /*  state machine encoding */
 char  *name;  /*  state name for display */
};

static inline enum bfa_iocpf_state
bfa_iocpf_sm_to_state(struct bfa_iocpf_sm_table *smt, bfa_iocpf_sm_t sm)
{
 int i = 0;

 while (smt[i].sm && smt[i].sm != sm)
  i++;
 return smt[i].state;
}

static struct bfa_iocpf_sm_table iocpf_sm_table[] = {
 {BFA_SM(bfa_iocpf_sm_reset), BFA_IOCPF_RESET},
 {BFA_SM(bfa_iocpf_sm_fwcheck), BFA_IOCPF_FWMISMATCH},
 {BFA_SM(bfa_iocpf_sm_mismatch), BFA_IOCPF_FWMISMATCH},
 {BFA_SM(bfa_iocpf_sm_semwait), BFA_IOCPF_SEMWAIT},
 {BFA_SM(bfa_iocpf_sm_hwinit), BFA_IOCPF_HWINIT},
 {BFA_SM(bfa_iocpf_sm_enabling), BFA_IOCPF_HWINIT},
 {BFA_SM(bfa_iocpf_sm_ready), BFA_IOCPF_READY},
 {BFA_SM(bfa_iocpf_sm_initfail_sync), BFA_IOCPF_INITFAIL},
 {BFA_SM(bfa_iocpf_sm_initfail), BFA_IOCPF_INITFAIL},
 {BFA_SM(bfa_iocpf_sm_fail_sync), BFA_IOCPF_FAIL},
 {BFA_SM(bfa_iocpf_sm_fail), BFA_IOCPF_FAIL},
 {BFA_SM(bfa_iocpf_sm_disabling), BFA_IOCPF_DISABLING},
 {BFA_SM(bfa_iocpf_sm_disabling_sync), BFA_IOCPF_DISABLING},
 {BFA_SM(bfa_iocpf_sm_disabled), BFA_IOCPF_DISABLED},
};

/*
 * IOC State Machine
 */


/*
 * Beginning state. IOC uninit state.
 */


static void
bfa_ioc_sm_uninit_entry(struct bfa_ioc_s *ioc)
{
}

/*
 * IOC is in uninit state.
 */

static void
bfa_ioc_sm_uninit(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_RESET:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_reset);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}
/*
 * Reset entry actions -- initialize state machine
 */

static void
bfa_ioc_sm_reset_entry(struct bfa_ioc_s *ioc)
{
 bfa_fsm_set_state(&ioc->iocpf, bfa_iocpf_sm_reset);
}

/*
 * IOC is in reset state.
 */

static void
bfa_ioc_sm_reset(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLE:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_enabling);
  break;

 case IOC_E_DISABLE:
  bfa_ioc_disable_comp(ioc);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}


static void
bfa_ioc_sm_enabling_entry(struct bfa_ioc_s *ioc)
{
 bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_ENABLE);
}

/*
 * Host IOC function is being enabled, awaiting response from firmware.
 * Semaphore is acquired.
 */

static void
bfa_ioc_sm_enabling(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLED:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_getattr);
  break;

 case IOC_E_PFFAILED:
  /* !!! fall through !!! */
 case IOC_E_HWERROR:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_fail);
  if (event != IOC_E_PFFAILED)
   bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_INITFAIL);
  break;

 case IOC_E_HWFAILED:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_hwfail);
  break;

 case IOC_E_DISABLE:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabling);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_STOP);
  break;

 case IOC_E_ENABLE:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}


static void
bfa_ioc_sm_getattr_entry(struct bfa_ioc_s *ioc)
{
 bfa_ioc_timer_start(ioc);
 bfa_ioc_send_getattr(ioc);
}

/*
 * IOC configuration in progress. Timer is active.
 */

static void
bfa_ioc_sm_getattr(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_FWRSP_GETATTR:
  bfa_ioc_timer_stop(ioc);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_op);
  break;

 case IOC_E_PFFAILED:
 case IOC_E_HWERROR:
  bfa_ioc_timer_stop(ioc);
  fallthrough;
 case IOC_E_TIMEOUT:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_fail);
  if (event != IOC_E_PFFAILED)
   bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_GETATTRFAIL);
  break;

 case IOC_E_DISABLE:
  bfa_ioc_timer_stop(ioc);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabling);
  break;

 case IOC_E_ENABLE:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_ioc_sm_op_entry(struct bfa_ioc_s *ioc)
{
 struct bfad_s *bfad = (struct bfad_s *)ioc->bfa->bfad;

 ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_OK);
 bfa_ioc_event_notify(ioc, BFA_IOC_E_ENABLED);
 bfa_ioc_hb_monitor(ioc);
 BFA_LOG(KERN_INFO, bfad, bfa_log_level, "IOC enabled\n");
 bfa_ioc_aen_post(ioc, BFA_IOC_AEN_ENABLE);
}

static void
bfa_ioc_sm_op(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLE:
  break;

 case IOC_E_DISABLE:
  bfa_hb_timer_stop(ioc);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabling);
  break;

 case IOC_E_PFFAILED:
 case IOC_E_HWERROR:
  bfa_hb_timer_stop(ioc);
  fallthrough;
 case IOC_E_HBFAIL:
  if (ioc->iocpf.auto_recover)
   bfa_fsm_set_state(ioc, bfa_ioc_sm_fail_retry);
  else
   bfa_fsm_set_state(ioc, bfa_ioc_sm_fail);

  bfa_ioc_fail_notify(ioc);

  if (event != IOC_E_PFFAILED)
   bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_FAIL);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}


static void
bfa_ioc_sm_disabling_entry(struct bfa_ioc_s *ioc)
{
 struct bfad_s *bfad = (struct bfad_s *)ioc->bfa->bfad;
 bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_DISABLE);
 BFA_LOG(KERN_INFO, bfad, bfa_log_level, "IOC disabled\n");
 bfa_ioc_aen_post(ioc, BFA_IOC_AEN_DISABLE);
}

/*
 * IOC is being disabled
 */

static void
bfa_ioc_sm_disabling(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_DISABLED:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabled);
  break;

 case IOC_E_HWERROR:
  /*
 * No state change.  Will move to disabled state
 * after iocpf sm completes failure processing and
 * moves to disabled state.
 */

  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_FAIL);
  break;

 case IOC_E_HWFAILED:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_hwfail);
  bfa_ioc_disable_comp(ioc);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * IOC disable completion entry.
 */

static void
bfa_ioc_sm_disabled_entry(struct bfa_ioc_s *ioc)
{
 bfa_ioc_disable_comp(ioc);
}

static void
bfa_ioc_sm_disabled(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLE:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_enabling);
  break;

 case IOC_E_DISABLE:
  ioc->cbfn->disable_cbfn(ioc->bfa);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_STOP);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}


static void
bfa_ioc_sm_fail_retry_entry(struct bfa_ioc_s *ioc)
{
 bfa_trc(ioc, 0);
}

/*
 * Hardware initialization retry.
 */

static void
bfa_ioc_sm_fail_retry(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLED:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_getattr);
  break;

 case IOC_E_PFFAILED:
 case IOC_E_HWERROR:
  /*
 * Initialization retry failed.
 */

  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_fail);
  if (event != IOC_E_PFFAILED)
   bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_INITFAIL);
  break;

 case IOC_E_HWFAILED:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  bfa_fsm_set_state(ioc, bfa_ioc_sm_hwfail);
  break;

 case IOC_E_ENABLE:
  break;

 case IOC_E_DISABLE:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabling);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_STOP);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}


static void
bfa_ioc_sm_fail_entry(struct bfa_ioc_s *ioc)
{
 bfa_trc(ioc, 0);
}

/*
 * IOC failure.
 */

static void
bfa_ioc_sm_fail(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {

 case IOC_E_ENABLE:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  break;

 case IOC_E_DISABLE:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_disabling);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_STOP);
  break;

 case IOC_E_HWERROR:
 case IOC_E_HWFAILED:
  /*
 * HB failure / HW error notification, ignore.
 */

  break;
 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_ioc_sm_hwfail_entry(struct bfa_ioc_s *ioc)
{
 bfa_trc(ioc, 0);
}

static void
bfa_ioc_sm_hwfail(struct bfa_ioc_s *ioc, enum ioc_event event)
{
 bfa_trc(ioc, event);

 switch (event) {
 case IOC_E_ENABLE:
  ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
  break;

 case IOC_E_DISABLE:
  ioc->cbfn->disable_cbfn(ioc->bfa);
  break;

 case IOC_E_DETACH:
  bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
  break;

 case IOC_E_HWERROR:
  /* Ignore - already in hwfail state */
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * IOCPF State Machine
 */


/*
 * Reset entry actions -- initialize state machine
 */

static void
bfa_iocpf_sm_reset_entry(struct bfa_iocpf_s *iocpf)
{
 iocpf->fw_mismatch_notified = BFA_FALSE;
 iocpf->auto_recover = bfa_auto_recover;
}

/*
 * Beginning state. IOC is in reset state.
 */

static void
bfa_iocpf_sm_reset(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_ENABLE:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fwcheck);
  break;

 case IOCPF_E_STOP:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * Semaphore should be acquired for version check.
 */

static void
bfa_iocpf_sm_fwcheck_entry(struct bfa_iocpf_s *iocpf)
{
 struct bfi_ioc_image_hdr_s fwhdr;
 u32 r32, fwstate, pgnum, loff = 0;
 int i;

 /*
 * Spin on init semaphore to serialize.
 */

 r32 = readl(iocpf->ioc->ioc_regs.ioc_init_sem_reg);
 while (r32 & 0x1) {
  udelay(20);
  r32 = readl(iocpf->ioc->ioc_regs.ioc_init_sem_reg);
 }

 /* h/w sem init */
 fwstate = bfa_ioc_get_cur_ioc_fwstate(iocpf->ioc);
 if (fwstate == BFI_IOC_UNINIT) {
  writel(1, iocpf->ioc->ioc_regs.ioc_init_sem_reg);
  goto sem_get;
 }

 bfa_ioc_fwver_get(iocpf->ioc, &fwhdr);

 if (swab32(fwhdr.exec) == BFI_FWBOOT_TYPE_NORMAL) {
  writel(1, iocpf->ioc->ioc_regs.ioc_init_sem_reg);
  goto sem_get;
 }

 /*
 * Clear fwver hdr
 */

 pgnum = PSS_SMEM_PGNUM(iocpf->ioc->ioc_regs.smem_pg0, loff);
 writel(pgnum, iocpf->ioc->ioc_regs.host_page_num_fn);

 for (i = 0; i < sizeof(struct bfi_ioc_image_hdr_s) / sizeof(u32); i++) {
  bfa_mem_write(iocpf->ioc->ioc_regs.smem_page_start, loff, 0);
  loff += sizeof(u32);
 }

 bfa_trc(iocpf->ioc, fwstate);
 bfa_trc(iocpf->ioc, swab32(fwhdr.exec));
 bfa_ioc_set_cur_ioc_fwstate(iocpf->ioc, BFI_IOC_UNINIT);
 bfa_ioc_set_alt_ioc_fwstate(iocpf->ioc, BFI_IOC_UNINIT);

 /*
 * Unlock the hw semaphore. Should be here only once per boot.
 */

 bfa_ioc_ownership_reset(iocpf->ioc);

 /*
 * unlock init semaphore.
 */

 writel(1, iocpf->ioc->ioc_regs.ioc_init_sem_reg);

sem_get:
 bfa_ioc_hw_sem_get(iocpf->ioc);
}

/*
 * Awaiting h/w semaphore to continue with version check.
 */

static void
bfa_iocpf_sm_fwcheck(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_SEMLOCKED:
  if (bfa_ioc_firmware_lock(ioc)) {
   if (bfa_ioc_sync_start(ioc)) {
    bfa_ioc_sync_join(ioc);
    bfa_fsm_set_state(iocpf, bfa_iocpf_sm_hwinit);
   } else {
    bfa_ioc_firmware_unlock(ioc);
    writel(1, ioc->ioc_regs.ioc_sem_reg);
    bfa_sem_timer_start(ioc);
   }
  } else {
   writel(1, ioc->ioc_regs.ioc_sem_reg);
   bfa_fsm_set_state(iocpf, bfa_iocpf_sm_mismatch);
  }
  break;

 case IOCPF_E_SEM_ERROR:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  bfa_fsm_send_event(ioc, IOC_E_HWFAILED);
  break;

 case IOCPF_E_DISABLE:
  bfa_sem_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  bfa_fsm_send_event(ioc, IOC_E_DISABLED);
  break;

 case IOCPF_E_STOP:
  bfa_sem_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * Notify enable completion callback.
 */

static void
bfa_iocpf_sm_mismatch_entry(struct bfa_iocpf_s *iocpf)
{
 /*
 * Call only the first time sm enters fwmismatch state.
 */

 if (iocpf->fw_mismatch_notified == BFA_FALSE)
  bfa_ioc_pf_fwmismatch(iocpf->ioc);

 iocpf->fw_mismatch_notified = BFA_TRUE;
 bfa_iocpf_timer_start(iocpf->ioc);
}

/*
 * Awaiting firmware version match.
 */

static void
bfa_iocpf_sm_mismatch(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_TIMEOUT:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fwcheck);
  break;

 case IOCPF_E_DISABLE:
  bfa_iocpf_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  bfa_fsm_send_event(ioc, IOC_E_DISABLED);
  break;

 case IOCPF_E_STOP:
  bfa_iocpf_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * Request for semaphore.
 */

static void
bfa_iocpf_sm_semwait_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_ioc_hw_sem_get(iocpf->ioc);
}

/*
 * Awaiting semaphore for h/w initialzation.
 */

static void
bfa_iocpf_sm_semwait(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_SEMLOCKED:
  if (bfa_ioc_sync_complete(ioc)) {
   bfa_ioc_sync_join(ioc);
   bfa_fsm_set_state(iocpf, bfa_iocpf_sm_hwinit);
  } else {
   writel(1, ioc->ioc_regs.ioc_sem_reg);
   bfa_sem_timer_start(ioc);
  }
  break;

 case IOCPF_E_SEM_ERROR:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  bfa_fsm_send_event(ioc, IOC_E_HWFAILED);
  break;

 case IOCPF_E_DISABLE:
  bfa_sem_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling_sync);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_hwinit_entry(struct bfa_iocpf_s *iocpf)
{
 iocpf->poll_time = 0;
 bfa_ioc_hwinit(iocpf->ioc, BFA_FALSE);
}

/*
 * Hardware is being initialized. Interrupts are enabled.
 * Holding hardware semaphore lock.
 */

static void
bfa_iocpf_sm_hwinit(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_FWREADY:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_enabling);
  break;

 case IOCPF_E_TIMEOUT:
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_send_event(ioc, IOC_E_PFFAILED);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_initfail_sync);
  break;

 case IOCPF_E_DISABLE:
  bfa_iocpf_timer_stop(ioc);
  bfa_ioc_sync_leave(ioc);
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabled);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_enabling_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_iocpf_timer_start(iocpf->ioc);
 /*
 * Enable Interrupts before sending fw IOC ENABLE cmd.
 */

 iocpf->ioc->cbfn->reset_cbfn(iocpf->ioc->bfa);
 bfa_ioc_send_enable(iocpf->ioc);
}

/*
 * Host IOC function is being enabled, awaiting response from firmware.
 * Semaphore is acquired.
 */

static void
bfa_iocpf_sm_enabling(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_FWRSP_ENABLE:
  bfa_iocpf_timer_stop(ioc);
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_ready);
  break;

 case IOCPF_E_INITFAIL:
  bfa_iocpf_timer_stop(ioc);
  fallthrough;

 case IOCPF_E_TIMEOUT:
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  if (event == IOCPF_E_TIMEOUT)
   bfa_fsm_send_event(ioc, IOC_E_PFFAILED);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_initfail_sync);
  break;

 case IOCPF_E_DISABLE:
  bfa_iocpf_timer_stop(ioc);
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_ready_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_fsm_send_event(iocpf->ioc, IOC_E_ENABLED);
}

static void
bfa_iocpf_sm_ready(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_DISABLE:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling);
  break;

 case IOCPF_E_GETATTRFAIL:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_initfail_sync);
  break;

 case IOCPF_E_FAIL:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail_sync);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_disabling_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_iocpf_timer_start(iocpf->ioc);
 bfa_ioc_send_disable(iocpf->ioc);
}

/*
 * IOC is being disabled
 */

static void
bfa_iocpf_sm_disabling(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_FWRSP_DISABLE:
  bfa_iocpf_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling_sync);
  break;

 case IOCPF_E_FAIL:
  bfa_iocpf_timer_stop(ioc);
  fallthrough;

 case IOCPF_E_TIMEOUT:
  bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_FAIL);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling_sync);
  break;

 case IOCPF_E_FWRSP_ENABLE:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_disabling_sync_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_ioc_hw_sem_get(iocpf->ioc);
}

/*
 * IOC hb ack request is being removed.
 */

static void
bfa_iocpf_sm_disabling_sync(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_SEMLOCKED:
  bfa_ioc_sync_leave(ioc);
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabled);
  break;

 case IOCPF_E_SEM_ERROR:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  bfa_fsm_send_event(ioc, IOC_E_HWFAILED);
  break;

 case IOCPF_E_FAIL:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 * IOC disable completion entry.
 */

static void
bfa_iocpf_sm_disabled_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_ioc_mbox_flush(iocpf->ioc);
 bfa_fsm_send_event(iocpf->ioc, IOC_E_DISABLED);
}

static void
bfa_iocpf_sm_disabled(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_ENABLE:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_semwait);
  break;

 case IOCPF_E_STOP:
  bfa_ioc_firmware_unlock(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_initfail_sync_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_ioc_debug_save_ftrc(iocpf->ioc);
 bfa_ioc_hw_sem_get(iocpf->ioc);
}

/*
 * Hardware initialization failed.
 */

static void
bfa_iocpf_sm_initfail_sync(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_SEMLOCKED:
  bfa_ioc_notify_fail(ioc);
  bfa_ioc_sync_leave(ioc);
  bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_FAIL);
  writel(1, ioc->ioc_regs.ioc_sem_reg);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_initfail);
  break;

 case IOCPF_E_SEM_ERROR:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  bfa_fsm_send_event(ioc, IOC_E_HWFAILED);
  break;

 case IOCPF_E_DISABLE:
  bfa_sem_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling_sync);
  break;

 case IOCPF_E_STOP:
  bfa_sem_timer_stop(ioc);
  bfa_ioc_firmware_unlock(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  break;

 case IOCPF_E_FAIL:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_initfail_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_trc(iocpf->ioc, 0);
}

/*
 * Hardware initialization failed.
 */

static void
bfa_iocpf_sm_initfail(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_DISABLE:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabled);
  break;

 case IOCPF_E_STOP:
  bfa_ioc_firmware_unlock(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_reset);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_fail_sync_entry(struct bfa_iocpf_s *iocpf)
{
 /*
 * Mark IOC as failed in hardware and stop firmware.
 */

 bfa_ioc_lpu_stop(iocpf->ioc);

 /*
 * Flush any queued up mailbox requests.
 */

 bfa_ioc_mbox_flush(iocpf->ioc);

 bfa_ioc_hw_sem_get(iocpf->ioc);
}

static void
bfa_iocpf_sm_fail_sync(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_SEMLOCKED:
  bfa_ioc_sync_ack(ioc);
  bfa_ioc_notify_fail(ioc);
  if (!iocpf->auto_recover) {
   bfa_ioc_sync_leave(ioc);
   bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_FAIL);
   writel(1, ioc->ioc_regs.ioc_sem_reg);
   bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  } else {
   if (bfa_ioc_sync_complete(ioc))
    bfa_fsm_set_state(iocpf, bfa_iocpf_sm_hwinit);
   else {
    writel(1, ioc->ioc_regs.ioc_sem_reg);
    bfa_fsm_set_state(iocpf, bfa_iocpf_sm_semwait);
   }
  }
  break;

 case IOCPF_E_SEM_ERROR:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_fail);
  bfa_fsm_send_event(ioc, IOC_E_HWFAILED);
  break;

 case IOCPF_E_DISABLE:
  bfa_sem_timer_stop(ioc);
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabling_sync);
  break;

 case IOCPF_E_FAIL:
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

static void
bfa_iocpf_sm_fail_entry(struct bfa_iocpf_s *iocpf)
{
 bfa_trc(iocpf->ioc, 0);
}

/*
 * IOC is in failed state.
 */

static void
bfa_iocpf_sm_fail(struct bfa_iocpf_s *iocpf, enum iocpf_event event)
{
 struct bfa_ioc_s *ioc = iocpf->ioc;

 bfa_trc(ioc, event);

 switch (event) {
 case IOCPF_E_DISABLE:
  bfa_fsm_set_state(iocpf, bfa_iocpf_sm_disabled);
  break;

 default:
  bfa_sm_fault(ioc, event);
 }
}

/*
 *  BFA IOC private functions
 */


/*
 * Notify common modules registered for notification.
 */

static void
bfa_ioc_event_notify(struct bfa_ioc_s *ioc, enum bfa_ioc_event_e event)
{
 struct bfa_ioc_notify_s *notify;
 struct list_head *qe;

 list_for_each(qe, &ioc->notify_q) {
  notify = (struct bfa_ioc_notify_s *)qe;
  notify->cbfn(notify->cbarg, event);
 }
}

static void
bfa_ioc_disable_comp(struct bfa_ioc_s *ioc)
{
 ioc->cbfn->disable_cbfn(ioc->bfa);
 bfa_ioc_event_notify(ioc, BFA_IOC_E_DISABLED);
}

bfa_boolean_t
bfa_ioc_sem_get(void __iomem *sem_reg)
{
 u32 r32;
 int cnt = 0;
#define BFA_SEM_SPINCNT 3000

 r32 = readl(sem_reg);

 while ((r32 & 1) && (cnt < BFA_SEM_SPINCNT)) {
  cnt++;
  udelay(2);
  r32 = readl(sem_reg);
 }

 if (!(r32 & 1))
  return BFA_TRUE;

 return BFA_FALSE;
}

static void
bfa_ioc_hw_sem_get(struct bfa_ioc_s *ioc)
{
 u32 r32;

 /*
 * First read to the semaphore register will return 0, subsequent reads
 * will return 1. Semaphore is released by writing 1 to the register
 */

 r32 = readl(ioc->ioc_regs.ioc_sem_reg);
 if (r32 == ~0) {
  WARN_ON(r32 == ~0);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_SEM_ERROR);
  return;
 }
 if (!(r32 & 1)) {
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_SEMLOCKED);
  return;
 }

 bfa_sem_timer_start(ioc);
}

/*
 * Initialize LPU local memory (aka secondary memory / SRAM)
 */

static void
bfa_ioc_lmem_init(struct bfa_ioc_s *ioc)
{
 u32 pss_ctl;
 int  i;
#define PSS_LMEM_INIT_TIME  10000

 pss_ctl = readl(ioc->ioc_regs.pss_ctl_reg);
 pss_ctl &= ~__PSS_LMEM_RESET;
 pss_ctl |= __PSS_LMEM_INIT_EN;

 /*
 * i2c workaround 12.5khz clock
 */

 pss_ctl |= __PSS_I2C_CLK_DIV(3UL);
 writel(pss_ctl, ioc->ioc_regs.pss_ctl_reg);

 /*
 * wait for memory initialization to be complete
 */

 i = 0;
 do {
  pss_ctl = readl(ioc->ioc_regs.pss_ctl_reg);
  i++;
 } while (!(pss_ctl & __PSS_LMEM_INIT_DONE) && (i < PSS_LMEM_INIT_TIME));

 /*
 * If memory initialization is not successful, IOC timeout will catch
 * such failures.
 */

 WARN_ON(!(pss_ctl & __PSS_LMEM_INIT_DONE));
 bfa_trc(ioc, pss_ctl);

 pss_ctl &= ~(__PSS_LMEM_INIT_DONE | __PSS_LMEM_INIT_EN);
 writel(pss_ctl, ioc->ioc_regs.pss_ctl_reg);
}

static void
bfa_ioc_lpu_start(struct bfa_ioc_s *ioc)
{
 u32 pss_ctl;

 /*
 * Take processor out of reset.
 */

 pss_ctl = readl(ioc->ioc_regs.pss_ctl_reg);
 pss_ctl &= ~__PSS_LPU0_RESET;

 writel(pss_ctl, ioc->ioc_regs.pss_ctl_reg);
}

static void
bfa_ioc_lpu_stop(struct bfa_ioc_s *ioc)
{
 u32 pss_ctl;

 /*
 * Put processors in reset.
 */

 pss_ctl = readl(ioc->ioc_regs.pss_ctl_reg);
 pss_ctl |= (__PSS_LPU0_RESET | __PSS_LPU1_RESET);

 writel(pss_ctl, ioc->ioc_regs.pss_ctl_reg);
}

/*
 * Get driver and firmware versions.
 */

void
bfa_ioc_fwver_get(struct bfa_ioc_s *ioc, struct bfi_ioc_image_hdr_s *fwhdr)
{
 u32 pgnum;
 u32 loff = 0;
 int  i;
 u32 *fwsig = (u32 *) fwhdr;

 pgnum = PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, loff);
 writel(pgnum, ioc->ioc_regs.host_page_num_fn);

 for (i = 0; i < (sizeof(struct bfi_ioc_image_hdr_s) / sizeof(u32));
      i++) {
  fwsig[i] =
   bfa_mem_read(ioc->ioc_regs.smem_page_start, loff);
  loff += sizeof(u32);
 }
}

/*
 * Returns TRUE if driver is willing to work with current smem f/w version.
 */

bfa_boolean_t
bfa_ioc_fwver_cmp(struct bfa_ioc_s *ioc,
  struct bfi_ioc_image_hdr_s *smem_fwhdr)
{
 struct bfi_ioc_image_hdr_s *drv_fwhdr;
 enum bfi_ioc_img_ver_cmp_e smem_flash_cmp, drv_smem_cmp;

 drv_fwhdr = (struct bfi_ioc_image_hdr_s *)
  bfa_cb_image_get_chunk(bfa_ioc_asic_gen(ioc), 0);

 /*
 * If smem is incompatible or old, driver should not work with it.
 */

 drv_smem_cmp = bfa_ioc_fw_ver_patch_cmp(drv_fwhdr, smem_fwhdr);
 if (drv_smem_cmp == BFI_IOC_IMG_VER_INCOMP ||
  drv_smem_cmp == BFI_IOC_IMG_VER_OLD) {
  return BFA_FALSE;
 }

 /*
 * IF Flash has a better F/W than smem do not work with smem.
 * If smem f/w == flash f/w, as smem f/w not old | incmp, work with it.
 * If Flash is old or incomp work with smem iff smem f/w == drv f/w.
 */

 smem_flash_cmp = bfa_ioc_flash_fwver_cmp(ioc, smem_fwhdr);

 if (smem_flash_cmp == BFI_IOC_IMG_VER_BETTER) {
  return BFA_FALSE;
 } else if (smem_flash_cmp == BFI_IOC_IMG_VER_SAME) {
  return BFA_TRUE;
 } else {
  return (drv_smem_cmp == BFI_IOC_IMG_VER_SAME) ?
   BFA_TRUE : BFA_FALSE;
 }
}

/*
 * Return true if current running version is valid. Firmware signature and
 * execution context (driver/bios) must match.
 */

static bfa_boolean_t
bfa_ioc_fwver_valid(struct bfa_ioc_s *ioc, u32 boot_env)
{
 struct bfi_ioc_image_hdr_s fwhdr;

 bfa_ioc_fwver_get(ioc, &fwhdr);

 if (swab32(fwhdr.bootenv) != boot_env) {
  bfa_trc(ioc, fwhdr.bootenv);
  bfa_trc(ioc, boot_env);
  return BFA_FALSE;
 }

 return bfa_ioc_fwver_cmp(ioc, &fwhdr);
}

static bfa_boolean_t
bfa_ioc_fwver_md5_check(struct bfi_ioc_image_hdr_s *fwhdr_1,
    struct bfi_ioc_image_hdr_s *fwhdr_2)
{
 int i;

 for (i = 0; i < BFI_IOC_MD5SUM_SZ; i++)
  if (fwhdr_1->md5sum[i] != fwhdr_2->md5sum[i])
   return BFA_FALSE;

 return BFA_TRUE;
}

/*
 * Returns TRUE if major minor and maintainence are same.
 * If patch versions are same, check for MD5 Checksum to be same.
 */

static bfa_boolean_t
bfa_ioc_fw_ver_compatible(struct bfi_ioc_image_hdr_s *drv_fwhdr,
    struct bfi_ioc_image_hdr_s *fwhdr_to_cmp)
{
 if (drv_fwhdr->signature != fwhdr_to_cmp->signature)
  return BFA_FALSE;

 if (drv_fwhdr->fwver.major != fwhdr_to_cmp->fwver.major)
  return BFA_FALSE;

 if (drv_fwhdr->fwver.minor != fwhdr_to_cmp->fwver.minor)
  return BFA_FALSE;

 if (drv_fwhdr->fwver.maint != fwhdr_to_cmp->fwver.maint)
  return BFA_FALSE;

 if (drv_fwhdr->fwver.patch == fwhdr_to_cmp->fwver.patch &&
  drv_fwhdr->fwver.phase == fwhdr_to_cmp->fwver.phase &&
  drv_fwhdr->fwver.build == fwhdr_to_cmp->fwver.build) {
  return bfa_ioc_fwver_md5_check(drv_fwhdr, fwhdr_to_cmp);
 }

 return BFA_TRUE;
}

static bfa_boolean_t
bfa_ioc_flash_fwver_valid(struct bfi_ioc_image_hdr_s *flash_fwhdr)
{
 if (flash_fwhdr->fwver.major == 0 || flash_fwhdr->fwver.major == 0xFF)
  return BFA_FALSE;

 return BFA_TRUE;
}

static bfa_boolean_t fwhdr_is_ga(struct bfi_ioc_image_hdr_s *fwhdr)
{
 if (fwhdr->fwver.phase == 0 &&
  fwhdr->fwver.build == 0)
  return BFA_TRUE;

 return BFA_FALSE;
}

/*
 * Returns TRUE if both are compatible and patch of fwhdr_to_cmp is better.
 */

static enum bfi_ioc_img_ver_cmp_e
bfa_ioc_fw_ver_patch_cmp(struct bfi_ioc_image_hdr_s *base_fwhdr,
    struct bfi_ioc_image_hdr_s *fwhdr_to_cmp)
{
 if (bfa_ioc_fw_ver_compatible(base_fwhdr, fwhdr_to_cmp) == BFA_FALSE)
  return BFI_IOC_IMG_VER_INCOMP;

 if (fwhdr_to_cmp->fwver.patch > base_fwhdr->fwver.patch)
  return BFI_IOC_IMG_VER_BETTER;

 else if (fwhdr_to_cmp->fwver.patch < base_fwhdr->fwver.patch)
  return BFI_IOC_IMG_VER_OLD;

 /*
 * GA takes priority over internal builds of the same patch stream.
 * At this point major minor maint and patch numbers are same.
 */


 if (fwhdr_is_ga(base_fwhdr) == BFA_TRUE) {
  if (fwhdr_is_ga(fwhdr_to_cmp))
   return BFI_IOC_IMG_VER_SAME;
  else
   return BFI_IOC_IMG_VER_OLD;
 } else {
  if (fwhdr_is_ga(fwhdr_to_cmp))
   return BFI_IOC_IMG_VER_BETTER;
 }

 if (fwhdr_to_cmp->fwver.phase > base_fwhdr->fwver.phase)
  return BFI_IOC_IMG_VER_BETTER;
 else if (fwhdr_to_cmp->fwver.phase < base_fwhdr->fwver.phase)
  return BFI_IOC_IMG_VER_OLD;

 if (fwhdr_to_cmp->fwver.build > base_fwhdr->fwver.build)
  return BFI_IOC_IMG_VER_BETTER;
 else if (fwhdr_to_cmp->fwver.build < base_fwhdr->fwver.build)
  return BFI_IOC_IMG_VER_OLD;

 /*
 * All Version Numbers are equal.
 * Md5 check to be done as a part of compatibility check.
 */

 return BFI_IOC_IMG_VER_SAME;
}

#define BFA_FLASH_PART_FWIMG_ADDR 0x100000 /* fw image address */

bfa_status_t
bfa_ioc_flash_img_get_chnk(struct bfa_ioc_s *ioc, u32 off,
    u32 *fwimg)
{
 return bfa_flash_raw_read(ioc->pcidev.pci_bar_kva,
   BFA_FLASH_PART_FWIMG_ADDR + (off * sizeof(u32)),
   (char *)fwimg, BFI_FLASH_CHUNK_SZ);
}

static enum bfi_ioc_img_ver_cmp_e
bfa_ioc_flash_fwver_cmp(struct bfa_ioc_s *ioc,
   struct bfi_ioc_image_hdr_s *base_fwhdr)
{
 struct bfi_ioc_image_hdr_s *flash_fwhdr;
 bfa_status_t status;
 u32 fwimg[BFI_FLASH_CHUNK_SZ_WORDS];

 status = bfa_ioc_flash_img_get_chnk(ioc, 0, fwimg);
 if (status != BFA_STATUS_OK)
  return BFI_IOC_IMG_VER_INCOMP;

 flash_fwhdr = (struct bfi_ioc_image_hdr_s *) fwimg;
 if (bfa_ioc_flash_fwver_valid(flash_fwhdr) == BFA_TRUE)
  return bfa_ioc_fw_ver_patch_cmp(base_fwhdr, flash_fwhdr);
 else
  return BFI_IOC_IMG_VER_INCOMP;
}


/*
 * Invalidate fwver signature
 */

bfa_status_t
bfa_ioc_fwsig_invalidate(struct bfa_ioc_s *ioc)
{

 u32 pgnum;
 u32 loff = 0;
 enum bfi_ioc_state ioc_fwstate;

 ioc_fwstate = bfa_ioc_get_cur_ioc_fwstate(ioc);
 if (!bfa_ioc_state_disabled(ioc_fwstate))
  return BFA_STATUS_ADAPTER_ENABLED;

 pgnum = PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, loff);
 writel(pgnum, ioc->ioc_regs.host_page_num_fn);
 bfa_mem_write(ioc->ioc_regs.smem_page_start, loff, BFA_IOC_FW_INV_SIGN);

 return BFA_STATUS_OK;
}

/*
 * Conditionally flush any pending message from firmware at start.
 */

static void
bfa_ioc_msgflush(struct bfa_ioc_s *ioc)
{
 u32 r32;

 r32 = readl(ioc->ioc_regs.lpu_mbox_cmd);
 if (r32)
  writel(1, ioc->ioc_regs.lpu_mbox_cmd);
}

static void
bfa_ioc_hwinit(struct bfa_ioc_s *ioc, bfa_boolean_t force)
{
 enum bfi_ioc_state ioc_fwstate;
 bfa_boolean_t fwvalid;
 u32 boot_type;
 u32 boot_env;

 ioc_fwstate = bfa_ioc_get_cur_ioc_fwstate(ioc);

 if (force)
  ioc_fwstate = BFI_IOC_UNINIT;

 bfa_trc(ioc, ioc_fwstate);

 boot_type = BFI_FWBOOT_TYPE_NORMAL;
 boot_env = BFI_FWBOOT_ENV_OS;

 /*
 * check if firmware is valid
 */

 fwvalid = (ioc_fwstate == BFI_IOC_UNINIT) ?
  BFA_FALSE : bfa_ioc_fwver_valid(ioc, boot_env);

 if (!fwvalid) {
  if (bfa_ioc_boot(ioc, boot_type, boot_env) == BFA_STATUS_OK)
   bfa_ioc_poll_fwinit(ioc);
  return;
 }

 /*
 * If hardware initialization is in progress (initialized by other IOC),
 * just wait for an initialization completion interrupt.
 */

 if (ioc_fwstate == BFI_IOC_INITING) {
  bfa_ioc_poll_fwinit(ioc);
  return;
 }

 /*
 * If IOC function is disabled and firmware version is same,
 * just re-enable IOC.
 *
 * If option rom, IOC must not be in operational state. With
 * convergence, IOC will be in operational state when 2nd driver
 * is loaded.
 */

 if (ioc_fwstate == BFI_IOC_DISABLED || ioc_fwstate == BFI_IOC_OP) {

  /*
 * When using MSI-X any pending firmware ready event should
 * be flushed. Otherwise MSI-X interrupts are not delivered.
 */

  bfa_ioc_msgflush(ioc);
  bfa_fsm_send_event(&ioc->iocpf, IOCPF_E_FWREADY);
  return;
 }

 /*
 * Initialize the h/w for any other states.
 */

 if (bfa_ioc_boot(ioc, boot_type, boot_env) == BFA_STATUS_OK)
  bfa_ioc_poll_fwinit(ioc);
}

static void
bfa_ioc_timeout(void *ioc_arg)
{
 struct bfa_ioc_s  *ioc = (struct bfa_ioc_s *) ioc_arg;

 bfa_trc(ioc, 0);
 bfa_fsm_send_event(ioc, IOC_E_TIMEOUT);
}

void
bfa_ioc_mbox_send(struct bfa_ioc_s *ioc, void *ioc_msg, int len)
{
 u32 *msgp = (u32 *) ioc_msg;
 u32 i;

 bfa_trc(ioc, msgp[0]);
 bfa_trc(ioc, len);

 WARN_ON(len > BFI_IOC_MSGLEN_MAX);

 /*
 * first write msg to mailbox registers
 */

 for (i = 0; i < len / sizeof(u32); i++)
  writel(cpu_to_le32(msgp[i]),
   ioc->ioc_regs.hfn_mbox + i * sizeof(u32));

 for (; i < BFI_IOC_MSGLEN_MAX / sizeof(u32); i++)
  writel(0, ioc->ioc_regs.hfn_mbox + i * sizeof(u32));

 /*
 * write 1 to mailbox CMD to trigger LPU event
 */

 writel(1, ioc->ioc_regs.hfn_mbox_cmd);
 (void) readl(ioc->ioc_regs.hfn_mbox_cmd);
}

static void
bfa_ioc_send_enable(struct bfa_ioc_s *ioc)
{
 struct bfi_ioc_ctrl_req_s enable_req;

 bfi_h2i_set(enable_req.mh, BFI_MC_IOC, BFI_IOC_H2I_ENABLE_REQ,
      bfa_ioc_portid(ioc));
 enable_req.clscode = cpu_to_be16(ioc->clscode);
 /* unsigned 32-bit time_t overflow in y2106 */
 enable_req.tv_sec = be32_to_cpu(ktime_get_real_seconds());
 bfa_ioc_mbox_send(ioc, &enable_req, sizeof(struct bfi_ioc_ctrl_req_s));
}

static void
bfa_ioc_send_disable(struct bfa_ioc_s *ioc)
{
 struct bfi_ioc_ctrl_req_s disable_req;

 bfi_h2i_set(disable_req.mh, BFI_MC_IOC, BFI_IOC_H2I_DISABLE_REQ,
      bfa_ioc_portid(ioc));
 disable_req.clscode = cpu_to_be16(ioc->clscode);
 /* unsigned 32-bit time_t overflow in y2106 */
 disable_req.tv_sec = be32_to_cpu(ktime_get_real_seconds());
 bfa_ioc_mbox_send(ioc, &disable_req, sizeof(struct bfi_ioc_ctrl_req_s));
}

static void
bfa_ioc_send_getattr(struct bfa_ioc_s *ioc)
{
 struct bfi_ioc_getattr_req_s attr_req;

 bfi_h2i_set(attr_req.mh, BFI_MC_IOC, BFI_IOC_H2I_GETATTR_REQ,
      bfa_ioc_portid(ioc));
 bfa_dma_be_addr_set(attr_req.attr_addr, ioc->attr_dma.pa);
 bfa_ioc_mbox_send(ioc, &attr_req, sizeof(attr_req));
}

static void
bfa_ioc_hb_check(void *cbarg)
{
 struct bfa_ioc_s  *ioc = cbarg;
 u32 hb_count;

 hb_count = readl(ioc->ioc_regs.heartbeat);
 if (ioc->hb_count == hb_count) {
  bfa_ioc_recover(ioc);
  return;
 } else {
  ioc->hb_count = hb_count;
 }

 bfa_ioc_mbox_poll(ioc);
 bfa_hb_timer_start(ioc);
}

static void
bfa_ioc_hb_monitor(struct bfa_ioc_s *ioc)
{
 ioc->hb_count = readl(ioc->ioc_regs.heartbeat);
 bfa_hb_timer_start(ioc);
}

/*
 * Initiate a full firmware download.
 */

static bfa_status_t
bfa_ioc_download_fw(struct bfa_ioc_s *ioc, u32 boot_type,
      u32 boot_env)
{
 u32 *fwimg;
 u32 pgnum;
 u32 loff = 0;
 u32 chunkno = 0;
 u32 i;
 u32 asicmode;
 u32 fwimg_size;
 u32 fwimg_buf[BFI_FLASH_CHUNK_SZ_WORDS];
 bfa_status_t status;

 if (boot_env == BFI_FWBOOT_ENV_OS &&
  boot_type == BFI_FWBOOT_TYPE_FLASH) {
  fwimg_size = BFI_FLASH_IMAGE_SZ/sizeof(u32);

  status = bfa_ioc_flash_img_get_chnk(ioc,
   BFA_IOC_FLASH_CHUNK_ADDR(chunkno), fwimg_buf);
  if (status != BFA_STATUS_OK)
   return status;

  fwimg = fwimg_buf;
 } else {
  fwimg_size = bfa_cb_image_get_size(bfa_ioc_asic_gen(ioc));
  fwimg = bfa_cb_image_get_chunk(bfa_ioc_asic_gen(ioc),
     BFA_IOC_FLASH_CHUNK_ADDR(chunkno));
 }

 bfa_trc(ioc, fwimg_size);


 pgnum = PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, loff);
 writel(pgnum, ioc->ioc_regs.host_page_num_fn);

 for (i = 0; i < fwimg_size; i++) {

  if (BFA_IOC_FLASH_CHUNK_NO(i) != chunkno) {
   chunkno = BFA_IOC_FLASH_CHUNK_NO(i);

   if (boot_env == BFI_FWBOOT_ENV_OS &&
    boot_type == BFI_FWBOOT_TYPE_FLASH) {
    status = bfa_ioc_flash_img_get_chnk(ioc,
     BFA_IOC_FLASH_CHUNK_ADDR(chunkno),
     fwimg_buf);
    if (status != BFA_STATUS_OK)
     return status;

    fwimg = fwimg_buf;
   } else {
    fwimg = bfa_cb_image_get_chunk(
     bfa_ioc_asic_gen(ioc),
     BFA_IOC_FLASH_CHUNK_ADDR(chunkno));
   }
  }

  /*
 * write smem
 */

  bfa_mem_write(ioc->ioc_regs.smem_page_start, loff,
         fwimg[BFA_IOC_FLASH_OFFSET_IN_CHUNK(i)]);

  loff += sizeof(u32);

  /*
 * handle page offset wrap around
 */

  loff = PSS_SMEM_PGOFF(loff);
  if (loff == 0) {
   pgnum++;
   writel(pgnum, ioc->ioc_regs.host_page_num_fn);
  }
 }

 writel(PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, 0),
   ioc->ioc_regs.host_page_num_fn);

 /*
 * Set boot type, env and device mode at the end.
 */

 if (boot_env == BFI_FWBOOT_ENV_OS &&
  boot_type == BFI_FWBOOT_TYPE_FLASH) {
  boot_type = BFI_FWBOOT_TYPE_NORMAL;
 }
 asicmode = BFI_FWBOOT_DEVMODE(ioc->asic_gen, ioc->asic_mode,
    ioc->port0_mode, ioc->port1_mode);
 bfa_mem_write(ioc->ioc_regs.smem_page_start, BFI_FWBOOT_DEVMODE_OFF,
   swab32(asicmode));
 bfa_mem_write(ioc->ioc_regs.smem_page_start, BFI_FWBOOT_TYPE_OFF,
   swab32(boot_type));
 bfa_mem_write(ioc->ioc_regs.smem_page_start, BFI_FWBOOT_ENV_OFF,
   swab32(boot_env));
 return BFA_STATUS_OK;
}


/*
 * Update BFA configuration from firmware configuration.
 */

static void
bfa_ioc_getattr_reply(struct bfa_ioc_s *ioc)
{
 struct bfi_ioc_attr_s *attr = ioc->attr;

 attr->adapter_prop  = be32_to_cpu(attr->adapter_prop);
 attr->card_type     = be32_to_cpu(attr->card_type);
 attr->maxfrsize     = be16_to_cpu(attr->maxfrsize);
 ioc->fcmode = (attr->port_mode == BFI_PORT_MODE_FC);
 attr->mfg_year = be16_to_cpu(attr->mfg_year);

 bfa_fsm_send_event(ioc, IOC_E_FWRSP_GETATTR);
}

/*
 * Attach time initialization of mbox logic.
 */

static void
bfa_ioc_mbox_attach(struct bfa_ioc_s *ioc)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 int mc;

 INIT_LIST_HEAD(&mod->cmd_q);
 for (mc = 0; mc < BFI_MC_MAX; mc++) {
  mod->mbhdlr[mc].cbfn = NULL;
  mod->mbhdlr[mc].cbarg = ioc->bfa;
 }
}

/*
 * Mbox poll timer -- restarts any pending mailbox requests.
 */

static void
bfa_ioc_mbox_poll(struct bfa_ioc_s *ioc)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 struct bfa_mbox_cmd_s  *cmd;
 u32   stat;

 /*
 * If no command pending, do nothing
 */

 if (list_empty(&mod->cmd_q))
  return;

 /*
 * If previous command is not yet fetched by firmware, do nothing
 */

 stat = readl(ioc->ioc_regs.hfn_mbox_cmd);
 if (stat)
  return;

 /*
 * Enqueue command to firmware.
 */

 bfa_q_deq(&mod->cmd_q, &cmd);
 bfa_ioc_mbox_send(ioc, cmd->msg, sizeof(cmd->msg));
}

/*
 * Cleanup any pending requests.
 */

static void
bfa_ioc_mbox_flush(struct bfa_ioc_s *ioc)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 struct bfa_mbox_cmd_s  *cmd;

 while (!list_empty(&mod->cmd_q))
  bfa_q_deq(&mod->cmd_q, &cmd);
}

/*
 * Read data from SMEM to host through PCI memmap
 *
 * @param[in] ioc memory for IOC
 * @param[in] tbuf app memory to store data from smem
 * @param[in] soff smem offset
 * @param[in] sz size of smem in bytes
 */

static bfa_status_t
bfa_ioc_smem_read(struct bfa_ioc_s *ioc, void *tbuf, u32 soff, u32 sz)
{
 u32 pgnum, loff;
 __be32 r32;
 int i, len;
 u32 *buf = tbuf;

 pgnum = PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, soff);
 loff = PSS_SMEM_PGOFF(soff);
 bfa_trc(ioc, pgnum);
 bfa_trc(ioc, loff);
 bfa_trc(ioc, sz);

 /*
 *  Hold semaphore to serialize pll init and fwtrc.
 */

 if (BFA_FALSE == bfa_ioc_sem_get(ioc->ioc_regs.ioc_init_sem_reg)) {
  bfa_trc(ioc, 0);
  return BFA_STATUS_FAILED;
 }

 writel(pgnum, ioc->ioc_regs.host_page_num_fn);

 len = sz/sizeof(u32);
 bfa_trc(ioc, len);
 for (i = 0; i < len; i++) {
  r32 = bfa_mem_read(ioc->ioc_regs.smem_page_start, loff);
  buf[i] = swab32(r32);
  loff += sizeof(u32);

  /*
 * handle page offset wrap around
 */

  loff = PSS_SMEM_PGOFF(loff);
  if (loff == 0) {
   pgnum++;
   writel(pgnum, ioc->ioc_regs.host_page_num_fn);
  }
 }
 writel(PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, 0),
   ioc->ioc_regs.host_page_num_fn);
 /*
 *  release semaphore.
 */

 readl(ioc->ioc_regs.ioc_init_sem_reg);
 writel(1, ioc->ioc_regs.ioc_init_sem_reg);

 bfa_trc(ioc, pgnum);
 return BFA_STATUS_OK;
}

/*
 * Clear SMEM data from host through PCI memmap
 *
 * @param[in] ioc memory for IOC
 * @param[in] soff smem offset
 * @param[in] sz size of smem in bytes
 */

static bfa_status_t
bfa_ioc_smem_clr(struct bfa_ioc_s *ioc, u32 soff, u32 sz)
{
 int i, len;
 u32 pgnum, loff;

 pgnum = PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, soff);
 loff = PSS_SMEM_PGOFF(soff);
 bfa_trc(ioc, pgnum);
 bfa_trc(ioc, loff);
 bfa_trc(ioc, sz);

 /*
 *  Hold semaphore to serialize pll init and fwtrc.
 */

 if (BFA_FALSE == bfa_ioc_sem_get(ioc->ioc_regs.ioc_init_sem_reg)) {
  bfa_trc(ioc, 0);
  return BFA_STATUS_FAILED;
 }

 writel(pgnum, ioc->ioc_regs.host_page_num_fn);

 len = sz/sizeof(u32); /* len in words */
 bfa_trc(ioc, len);
 for (i = 0; i < len; i++) {
  bfa_mem_write(ioc->ioc_regs.smem_page_start, loff, 0);
  loff += sizeof(u32);

  /*
 * handle page offset wrap around
 */

  loff = PSS_SMEM_PGOFF(loff);
  if (loff == 0) {
   pgnum++;
   writel(pgnum, ioc->ioc_regs.host_page_num_fn);
  }
 }
 writel(PSS_SMEM_PGNUM(ioc->ioc_regs.smem_pg0, 0),
   ioc->ioc_regs.host_page_num_fn);

 /*
 *  release semaphore.
 */

 readl(ioc->ioc_regs.ioc_init_sem_reg);
 writel(1, ioc->ioc_regs.ioc_init_sem_reg);
 bfa_trc(ioc, pgnum);
 return BFA_STATUS_OK;
}

static void
bfa_ioc_fail_notify(struct bfa_ioc_s *ioc)
{
 struct bfad_s *bfad = (struct bfad_s *)ioc->bfa->bfad;

 /*
 * Notify driver and common modules registered for notification.
 */

 ioc->cbfn->hbfail_cbfn(ioc->bfa);
 bfa_ioc_event_notify(ioc, BFA_IOC_E_FAILED);

 bfa_ioc_debug_save_ftrc(ioc);

 BFA_LOG(KERN_CRIT, bfad, bfa_log_level,
  "Heart Beat of IOC has failed\n");
 bfa_ioc_aen_post(ioc, BFA_IOC_AEN_HBFAIL);

}

static void
bfa_ioc_pf_fwmismatch(struct bfa_ioc_s *ioc)
{
 struct bfad_s *bfad = (struct bfad_s *)ioc->bfa->bfad;
 /*
 * Provide enable completion callback.
 */

 ioc->cbfn->enable_cbfn(ioc->bfa, BFA_STATUS_IOC_FAILURE);
 BFA_LOG(KERN_WARNING, bfad, bfa_log_level,
  "Running firmware version is incompatible "
  "with the driver version\n");
 bfa_ioc_aen_post(ioc, BFA_IOC_AEN_FWMISMATCH);
}

bfa_status_t
bfa_ioc_pll_init(struct bfa_ioc_s *ioc)
{

 /*
 *  Hold semaphore so that nobody can access the chip during init.
 */

 bfa_ioc_sem_get(ioc->ioc_regs.ioc_init_sem_reg);

 bfa_ioc_pll_init_asic(ioc);

 ioc->pllinit = BFA_TRUE;

 /*
 * Initialize LMEM
 */

 bfa_ioc_lmem_init(ioc);

 /*
 *  release semaphore.
 */

 readl(ioc->ioc_regs.ioc_init_sem_reg);
 writel(1, ioc->ioc_regs.ioc_init_sem_reg);

 return BFA_STATUS_OK;
}

/*
 * Interface used by diag module to do firmware boot with memory test
 * as the entry vector.
 */

bfa_status_t
bfa_ioc_boot(struct bfa_ioc_s *ioc, u32 boot_type, u32 boot_env)
{
 struct bfi_ioc_image_hdr_s *drv_fwhdr;
 bfa_status_t status;
 bfa_ioc_stats(ioc, ioc_boots);

 if (bfa_ioc_pll_init(ioc) != BFA_STATUS_OK)
  return BFA_STATUS_FAILED;

 if (boot_env == BFI_FWBOOT_ENV_OS &&
  boot_type == BFI_FWBOOT_TYPE_NORMAL) {

  drv_fwhdr = (struct bfi_ioc_image_hdr_s *)
   bfa_cb_image_get_chunk(bfa_ioc_asic_gen(ioc), 0);

  /*
 * Work with Flash iff flash f/w is better than driver f/w.
 * Otherwise push drivers firmware.
 */

  if (bfa_ioc_flash_fwver_cmp(ioc, drv_fwhdr) ==
      BFI_IOC_IMG_VER_BETTER)
   boot_type = BFI_FWBOOT_TYPE_FLASH;
 }

 /*
 * Initialize IOC state of all functions on a chip reset.
 */

 if (boot_type == BFI_FWBOOT_TYPE_MEMTEST) {
  bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_MEMTEST);
  bfa_ioc_set_alt_ioc_fwstate(ioc, BFI_IOC_MEMTEST);
 } else {
  bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_INITING);
  bfa_ioc_set_alt_ioc_fwstate(ioc, BFI_IOC_INITING);
 }

 bfa_ioc_msgflush(ioc);
 status = bfa_ioc_download_fw(ioc, boot_type, boot_env);
 if (status == BFA_STATUS_OK)
  bfa_ioc_lpu_start(ioc);
 else {
  WARN_ON(boot_type == BFI_FWBOOT_TYPE_MEMTEST);
  bfa_iocpf_timeout(ioc);
 }
 return status;
}

bfa_boolean_t
bfa_ioc_is_operational(struct bfa_ioc_s *ioc)
{
 return bfa_fsm_cmp_state(ioc, bfa_ioc_sm_op);
}

bfa_boolean_t
bfa_ioc_msgget(struct bfa_ioc_s *ioc, void *mbmsg)
{
 __be32 *msgp = mbmsg;
 u32 r32;
 int  i;

 r32 = readl(ioc->ioc_regs.lpu_mbox_cmd);
 if ((r32 & 1) == 0)
  return BFA_FALSE;

 /*
 * read the MBOX msg
 */

 for (i = 0; i < (sizeof(union bfi_ioc_i2h_msg_u) / sizeof(u32));
      i++) {
  r32 = readl(ioc->ioc_regs.lpu_mbox +
       i * sizeof(u32));
  msgp[i] = cpu_to_be32(r32);
 }

 /*
 * turn off mailbox interrupt by clearing mailbox status
 */

 writel(1, ioc->ioc_regs.lpu_mbox_cmd);
 readl(ioc->ioc_regs.lpu_mbox_cmd);

 return BFA_TRUE;
}

void
bfa_ioc_isr(struct bfa_ioc_s *ioc, struct bfi_mbmsg_s *m)
{
 union bfi_ioc_i2h_msg_u *msg;
 struct bfa_iocpf_s *iocpf = &ioc->iocpf;

 msg = (union bfi_ioc_i2h_msg_u *) m;

 bfa_ioc_stats(ioc, ioc_isrs);

 switch (msg->mh.msg_id) {
 case BFI_IOC_I2H_HBEAT:
  break;

 case BFI_IOC_I2H_ENABLE_REPLY:
  ioc->port_mode = ioc->port_mode_cfg =
    (enum bfa_mode_s)msg->fw_event.port_mode;
  ioc->ad_cap_bm = msg->fw_event.cap_bm;
  bfa_fsm_send_event(iocpf, IOCPF_E_FWRSP_ENABLE);
  break;

 case BFI_IOC_I2H_DISABLE_REPLY:
  bfa_fsm_send_event(iocpf, IOCPF_E_FWRSP_DISABLE);
  break;

 case BFI_IOC_I2H_GETATTR_REPLY:
  bfa_ioc_getattr_reply(ioc);
  break;

 default:
  bfa_trc(ioc, msg->mh.msg_id);
  WARN_ON(1);
 }
}

/*
 * IOC attach time initialization and setup.
 *
 * @param[in] ioc memory for IOC
 * @param[in] bfa driver instance structure
 */

void
bfa_ioc_attach(struct bfa_ioc_s *ioc, void *bfa, struct bfa_ioc_cbfn_s *cbfn,
        struct bfa_timer_mod_s *timer_mod)
{
 ioc->bfa = bfa;
 ioc->cbfn = cbfn;
 ioc->timer_mod = timer_mod;
 ioc->fcmode = BFA_FALSE;
 ioc->pllinit = BFA_FALSE;
 ioc->dbg_fwsave_once = BFA_TRUE;
 ioc->iocpf.ioc = ioc;

 bfa_ioc_mbox_attach(ioc);
 INIT_LIST_HEAD(&ioc->notify_q);

 bfa_fsm_set_state(ioc, bfa_ioc_sm_uninit);
 bfa_fsm_send_event(ioc, IOC_E_RESET);
}

/*
 * Driver detach time IOC cleanup.
 */

void
bfa_ioc_detach(struct bfa_ioc_s *ioc)
{
 bfa_fsm_send_event(ioc, IOC_E_DETACH);
 INIT_LIST_HEAD(&ioc->notify_q);
}

/*
 * Setup IOC PCI properties.
 *
 * @param[in] pcidev PCI device information for this IOC
 */

void
bfa_ioc_pci_init(struct bfa_ioc_s *ioc, struct bfa_pcidev_s *pcidev,
  enum bfi_pcifn_class clscode)
{
 ioc->clscode = clscode;
 ioc->pcidev = *pcidev;

 /*
 * Initialize IOC and device personality
 */

 ioc->port0_mode = ioc->port1_mode = BFI_PORT_MODE_FC;
 ioc->asic_mode  = BFI_ASIC_MODE_FC;

 switch (pcidev->device_id) {
 case BFA_PCI_DEVICE_ID_FC_8G1P:
 case BFA_PCI_DEVICE_ID_FC_8G2P:
  ioc->asic_gen = BFI_ASIC_GEN_CB;
  ioc->fcmode = BFA_TRUE;
  ioc->port_mode = ioc->port_mode_cfg = BFA_MODE_HBA;
  ioc->ad_cap_bm = BFA_CM_HBA;
  break;

 case BFA_PCI_DEVICE_ID_CT:
  ioc->asic_gen = BFI_ASIC_GEN_CT;
  ioc->port0_mode = ioc->port1_mode = BFI_PORT_MODE_ETH;
  ioc->asic_mode  = BFI_ASIC_MODE_ETH;
  ioc->port_mode = ioc->port_mode_cfg = BFA_MODE_CNA;
  ioc->ad_cap_bm = BFA_CM_CNA;
  break;

 case BFA_PCI_DEVICE_ID_CT_FC:
  ioc->asic_gen = BFI_ASIC_GEN_CT;
  ioc->fcmode = BFA_TRUE;
  ioc->port_mode = ioc->port_mode_cfg = BFA_MODE_HBA;
  ioc->ad_cap_bm = BFA_CM_HBA;
  break;

 case BFA_PCI_DEVICE_ID_CT2:
 case BFA_PCI_DEVICE_ID_CT2_QUAD:
  ioc->asic_gen = BFI_ASIC_GEN_CT2;
  if (clscode == BFI_PCIFN_CLASS_FC &&
      pcidev->ssid == BFA_PCI_CT2_SSID_FC) {
   ioc->asic_mode  = BFI_ASIC_MODE_FC16;
   ioc->fcmode = BFA_TRUE;
   ioc->port_mode = ioc->port_mode_cfg = BFA_MODE_HBA;
   ioc->ad_cap_bm = BFA_CM_HBA;
  } else {
   ioc->port0_mode = ioc->port1_mode = BFI_PORT_MODE_ETH;
   ioc->asic_mode  = BFI_ASIC_MODE_ETH;
   if (pcidev->ssid == BFA_PCI_CT2_SSID_FCoE) {
    ioc->port_mode =
    ioc->port_mode_cfg = BFA_MODE_CNA;
    ioc->ad_cap_bm = BFA_CM_CNA;
   } else {
    ioc->port_mode =
    ioc->port_mode_cfg = BFA_MODE_NIC;
    ioc->ad_cap_bm = BFA_CM_NIC;
   }
  }
  break;

 default:
  WARN_ON(1);
 }

 /*
 * Set asic specific interfaces. See bfa_ioc_cb.c and bfa_ioc_ct.c
 */

 if (ioc->asic_gen == BFI_ASIC_GEN_CB)
  bfa_ioc_set_cb_hwif(ioc);
 else if (ioc->asic_gen == BFI_ASIC_GEN_CT)
  bfa_ioc_set_ct_hwif(ioc);
 else {
  WARN_ON(ioc->asic_gen != BFI_ASIC_GEN_CT2);
  bfa_ioc_set_ct2_hwif(ioc);
  bfa_ioc_ct2_poweron(ioc);
 }

 bfa_ioc_map_port(ioc);
 bfa_ioc_reg_init(ioc);
}

/*
 * Initialize IOC dma memory
 *
 * @param[in] dm_kva kernel virtual address of IOC dma memory
 * @param[in] dm_pa physical address of IOC dma memory
 */

void
bfa_ioc_mem_claim(struct bfa_ioc_s *ioc,  u8 *dm_kva, u64 dm_pa)
{
 /*
 * dma memory for firmware attribute
 */

 ioc->attr_dma.kva = dm_kva;
 ioc->attr_dma.pa = dm_pa;
 ioc->attr = (struct bfi_ioc_attr_s *) dm_kva;
}

void
bfa_ioc_enable(struct bfa_ioc_s *ioc)
{
 bfa_ioc_stats(ioc, ioc_enables);
 ioc->dbg_fwsave_once = BFA_TRUE;

 bfa_fsm_send_event(ioc, IOC_E_ENABLE);
}

void
bfa_ioc_disable(struct bfa_ioc_s *ioc)
{
 bfa_ioc_stats(ioc, ioc_disables);
 bfa_fsm_send_event(ioc, IOC_E_DISABLE);
}

void
bfa_ioc_suspend(struct bfa_ioc_s *ioc)
{
 ioc->dbg_fwsave_once = BFA_TRUE;
 bfa_fsm_send_event(ioc, IOC_E_HWERROR);
}

/*
 * Initialize memory for saving firmware trace. Driver must initialize
 * trace memory before call bfa_ioc_enable().
 */

void
bfa_ioc_debug_memclaim(struct bfa_ioc_s *ioc, void *dbg_fwsave)
{
 ioc->dbg_fwsave     = dbg_fwsave;
 ioc->dbg_fwsave_len = BFA_DBG_FWTRC_LEN;
}

/*
 * Register mailbox message handler functions
 *
 * @param[in] ioc IOC instance
 * @param[in] mcfuncs message class handler functions
 */

void
bfa_ioc_mbox_register(struct bfa_ioc_s *ioc, bfa_ioc_mbox_mcfunc_t *mcfuncs)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 int    mc;

 for (mc = 0; mc < BFI_MC_MAX; mc++)
  mod->mbhdlr[mc].cbfn = mcfuncs[mc];
}

/*
 * Register mailbox message handler function, to be called by common modules
 */

void
bfa_ioc_mbox_regisr(struct bfa_ioc_s *ioc, enum bfi_mclass mc,
      bfa_ioc_mbox_mcfunc_t cbfn, void *cbarg)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;

 mod->mbhdlr[mc].cbfn = cbfn;
 mod->mbhdlr[mc].cbarg = cbarg;
}

/*
 * Queue a mailbox command request to firmware. Waits if mailbox is busy.
 * Responsibility of caller to serialize
 *
 * @param[in] ioc IOC instance
 * @param[i] cmd Mailbox command
 */

void
bfa_ioc_mbox_queue(struct bfa_ioc_s *ioc, struct bfa_mbox_cmd_s *cmd)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 u32   stat;

 /*
 * If a previous command is pending, queue new command
 */

 if (!list_empty(&mod->cmd_q)) {
  list_add_tail(&cmd->qe, &mod->cmd_q);
  return;
 }

 /*
 * If mailbox is busy, queue command for poll timer
 */

 stat = readl(ioc->ioc_regs.hfn_mbox_cmd);
 if (stat) {
  list_add_tail(&cmd->qe, &mod->cmd_q);
  return;
 }

 /*
 * mailbox is free -- queue command to firmware
 */

 bfa_ioc_mbox_send(ioc, cmd->msg, sizeof(cmd->msg));
}

/*
 * Handle mailbox interrupts
 */

void
bfa_ioc_mbox_isr(struct bfa_ioc_s *ioc)
{
 struct bfa_ioc_mbox_mod_s *mod = &ioc->mbox_mod;
 struct bfi_mbmsg_s  m;
 int    mc;

 if (bfa_ioc_msgget(ioc, &m)) {
  /*
 * Treat IOC message class as special.
 */

  mc = m.mh.msg_class;
  if (mc == BFI_MC_IOC) {
   bfa_ioc_isr(ioc, &m);
   return;
  }

  if ((mc >= BFI_MC_MAX) || (mod->mbhdlr[mc].cbfn == NULL))
   return;

  mod->mbhdlr[mc].cbfn(mod->mbhdlr[mc].cbarg, &m);
 }

 bfa_ioc_lpu_read_stat(ioc);

 /*
 * Try to send pending mailbox commands
 */

 bfa_ioc_mbox_poll(ioc);
}

void
bfa_ioc_error_isr(struct bfa_ioc_s *ioc)
{
 bfa_ioc_stats(ioc, ioc_hbfails);
 ioc->stats.hb_count = ioc->hb_count;
 bfa_fsm_send_event(ioc, IOC_E_HWERROR);
}

/*
 * return true if IOC is disabled
 */

bfa_boolean_t
bfa_ioc_is_disabled(struct bfa_ioc_s *ioc)
{
 return bfa_fsm_cmp_state(ioc, bfa_ioc_sm_disabling) ||
  bfa_fsm_cmp_state(ioc, bfa_ioc_sm_disabled);
}

/*
 * return true if IOC firmware is different.
 */

bfa_boolean_t
bfa_ioc_fw_mismatch(struct bfa_ioc_s *ioc)
{
 return bfa_fsm_cmp_state(ioc, bfa_ioc_sm_reset) ||
  bfa_fsm_cmp_state(&ioc->iocpf, bfa_iocpf_sm_fwcheck) ||
  bfa_fsm_cmp_state(&ioc->iocpf, bfa_iocpf_sm_mismatch);
}

/*
 * Check if adapter is disabled -- both IOCs should be in a disabled
 * state.
 */

bfa_boolean_t
bfa_ioc_adapter_is_disabled(struct bfa_ioc_s *ioc)
{
 u32 ioc_state;

 if (!bfa_fsm_cmp_state(ioc, bfa_ioc_sm_disabled))
  return BFA_FALSE;

 ioc_state = bfa_ioc_get_cur_ioc_fwstate(ioc);
 if (!bfa_ioc_state_disabled(ioc_state))
  return BFA_FALSE;

 if (ioc->pcidev.device_id != BFA_PCI_DEVICE_ID_FC_8G1P) {
  ioc_state = bfa_ioc_get_cur_ioc_fwstate(ioc);
  if (!bfa_ioc_state_disabled(ioc_state))
   return BFA_FALSE;
 }

 return BFA_TRUE;
}

/*
 * Reset IOC fwstate registers.
 */

void
bfa_ioc_reset_fwstate(struct bfa_ioc_s *ioc)
{
 bfa_ioc_set_cur_ioc_fwstate(ioc, BFI_IOC_UNINIT);
 bfa_ioc_set_alt_ioc_fwstate(ioc, BFI_IOC_UNINIT);
}

#define BFA_MFG_NAME "QLogic"
void
bfa_ioc_get_adapter_attr(struct bfa_ioc_s *ioc,
    struct bfa_adapter_attr_s *ad_attr)
{
 struct bfi_ioc_attr_s *ioc_attr;

 ioc_attr = ioc->attr;

 bfa_ioc_get_adapter_serial_num(ioc, ad_attr->serial_num);
 bfa_ioc_get_adapter_fw_ver(ioc, ad_attr->fw_ver);
 bfa_ioc_get_adapter_optrom_ver(ioc, ad_attr->optrom_ver);
 bfa_ioc_get_adapter_manufacturer(ioc, ad_attr->manufacturer);
 memcpy(&ad_attr->vpd, &ioc_attr->vpd,
        sizeof(struct bfa_mfg_vpd_s));

 ad_attr->nports = bfa_ioc_get_nports(ioc);
 ad_attr->max_speed = bfa_ioc_speed_sup(ioc);

 bfa_ioc_get_adapter_model(ioc, ad_attr->model);
 /* For now, model descr uses same model string */
 bfa_ioc_get_adapter_model(ioc, ad_attr->model_descr);

 ad_attr->card_type = ioc_attr->card_type;
 ad_attr->is_mezz = bfa_mfg_is_mezz(ioc_attr->card_type);

 if (BFI_ADAPTER_IS_SPECIAL(ioc_attr->adapter_prop))
  ad_attr->prototype = 1;
 else
  ad_attr->prototype = 0;

 ad_attr->pwwn = ioc->attr->pwwn;
 ad_attr->mac  = bfa_ioc_get_mac(ioc);

 ad_attr->pcie_gen = ioc_attr->pcie_gen;
 ad_attr->pcie_lanes = ioc_attr->pcie_lanes;
 ad_attr->pcie_lanes_orig = ioc_attr->pcie_lanes_orig;
 ad_attr->asic_rev = ioc_attr->asic_rev;

 bfa_ioc_get_pci_chip_rev(ioc, ad_attr->hw_ver);

 ad_attr->cna_capable = bfa_ioc_is_cna(ioc);
 ad_attr->trunk_capable = (ad_attr->nports > 1) &&
      !bfa_ioc_is_cna(ioc) && !ad_attr->is_mezz;
 ad_attr->mfg_day = ioc_attr->mfg_day;
 ad_attr->mfg_month = ioc_attr->mfg_month;
 ad_attr->mfg_year = ioc_attr->mfg_year;
 memcpy(ad_attr->uuid, ioc_attr->uuid, BFA_ADAPTER_UUID_LEN);
}

enum bfa_ioc_type_e
bfa_ioc_get_type(struct bfa_ioc_s *ioc)
{
 if (ioc->clscode == BFI_PCIFN_CLASS_ETH)
  return BFA_IOC_TYPE_LL;

 WARN_ON(ioc->clscode != BFI_PCIFN_CLASS_FC);

 return (ioc->attr->port_mode == BFI_PORT_MODE_FC)
  ? BFA_IOC_TYPE_FC : BFA_IOC_TYPE_FCoE;
}

void
bfa_ioc_get_adapter_serial_num(struct bfa_ioc_s *ioc, char *serial_num)
{
 memset((void *)serial_num, 0, BFA_ADAPTER_SERIAL_NUM_LEN);
 memcpy((void *)serial_num,
   (void *)ioc->attr->brcd_serialnum,
   BFA_ADAPTER_SERIAL_NUM_LEN);
}

void
bfa_ioc_get_adapter_fw_ver(struct bfa_ioc_s *ioc, char *fw_ver)
{
 memset((void *)fw_ver, 0, BFA_VERSION_LEN);
 memcpy(fw_ver, ioc->attr->fw_version, BFA_VERSION_LEN);
}

void
bfa_ioc_get_pci_chip_rev(struct bfa_ioc_s *ioc, char *chip_rev)
{
 WARN_ON(!chip_rev);

 memset((void *)chip_rev, 0, BFA_IOC_CHIP_REV_LEN);

 chip_rev[0] = 'R';
 chip_rev[1] = 'e';
 chip_rev[2] = 'v';
 chip_rev[3] = '-';
 chip_rev[4] = ioc->attr->asic_rev;
 chip_rev[5] = '\0';
}

void
bfa_ioc_get_adapter_optrom_ver(struct bfa_ioc_s *ioc, char *optrom_ver)
{
 memset((void *)optrom_ver, 0, BFA_VERSION_LEN);
 memcpy(optrom_ver, ioc->attr->optrom_version,
        BFA_VERSION_LEN);
}

void
bfa_ioc_get_adapter_manufacturer(struct bfa_ioc_s *ioc, char *manufacturer)
{
 memset((void *)manufacturer, 0, BFA_ADAPTER_MFG_NAME_LEN);
 strscpy(manufacturer, BFA_MFG_NAME, BFA_ADAPTER_MFG_NAME_LEN);
}

void
bfa_ioc_get_adapter_model(struct bfa_ioc_s *ioc, char *model)
{
 struct bfi_ioc_attr_s *ioc_attr;
 u8 nports = bfa_ioc_get_nports(ioc);

 WARN_ON(!model);
 memset((void *)model, 0, BFA_ADAPTER_MODEL_NAME_LEN);

 ioc_attr = ioc->attr;

 if (bfa_asic_id_ct2(ioc->pcidev.device_id) &&
  (!bfa_mfg_is_mezz(ioc_attr->card_type)))
  snprintf(model, BFA_ADAPTER_MODEL_NAME_LEN, "%s-%u-%u%s",
   BFA_MFG_NAME, ioc_attr->card_type, nports, "p");
 else
  snprintf(model, BFA_ADAPTER_MODEL_NAME_LEN, "%s-%u",
   BFA_MFG_NAME, ioc_attr->card_type);
}

enum bfa_ioc_state
bfa_ioc_get_state(struct bfa_ioc_s *ioc)
{
 enum bfa_iocpf_state iocpf_st;
 enum bfa_ioc_state ioc_st = bfa_ioc_sm_to_state(ioc_sm_table, ioc->fsm);

 if (ioc_st == BFA_IOC_ENABLING ||
  ioc_st == BFA_IOC_FAIL || ioc_st == BFA_IOC_INITFAIL) {

  iocpf_st = bfa_iocpf_sm_to_state(iocpf_sm_table, ioc->iocpf.fsm);

  switch (iocpf_st) {
  case BFA_IOCPF_SEMWAIT:
   ioc_st = BFA_IOC_SEMWAIT;
   break;

  case BFA_IOCPF_HWINIT:
   ioc_st = BFA_IOC_HWINIT;
   break;

  case BFA_IOCPF_FWMISMATCH:
   ioc_st = BFA_IOC_FWMISMATCH;
   break;

  case BFA_IOCPF_FAIL:
   ioc_st = BFA_IOC_FAIL;
   break;

  case BFA_IOCPF_INITFAIL:
--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=95 H=93 G=93

¤ Dauer der Verarbeitung: 0.27 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge