Anforderungen  |   Konzepte  |   Entwurf  |   Entwicklung  |   Qualitätssicherung  |   Lebenszyklus  |   Steuerung
 
 
 
 


Quelle  smu_v13_0_5_ppt.c   Sprache: C

 
/*
 * Copyright 2020 Advanced Micro Devices, Inc.
 *
 * Permission is hereby granted, free of charge, to any person obtaining a
 * copy of this software and associated documentation files (the "Software"),
 * to deal in the Software without restriction, including without limitation
 * the rights to use, copy, modify, merge, publish, distribute, sublicense,
 * and/or sell copies of the Software, and to permit persons to whom the
 * Software is furnished to do so, subject to the following conditions:
 *
 * The above copyright notice and this permission notice shall be included in
 * all copies or substantial portions of the Software.
 *
 * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
 * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
 * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
 * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
 * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
 * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
 * OTHER DEALINGS IN THE SOFTWARE.
 *
 */


#define SWSMU_CODE_LAYER_L2

#include "amdgpu.h"
#include "amdgpu_smu.h"
#include "smu_v13_0.h"
#include "smu13_driver_if_v13_0_5.h"
#include "smu_v13_0_5_ppt.h"
#include "smu_v13_0_5_ppsmc.h"
#include "smu_v13_0_5_pmfw.h"
#include "smu_cmn.h"

/*
 * DO NOT use these for err/warn/info/debug messages.
 * Use dev_err, dev_warn, dev_info and dev_dbg instead.
 * They are more MGPU friendly.
 */

#undef pr_err
#undef pr_warn
#undef pr_info
#undef pr_debug

#define mmMP1_C2PMSG_2                                                                            (0xbee142 + 0xb00000 / 4)
#define mmMP1_C2PMSG_2_BASE_IDX                                                                   0

#define mmMP1_C2PMSG_34                                                                           (0xbee262 + 0xb00000 / 4)
#define mmMP1_C2PMSG_34_BASE_IDX                                                                   0

#define mmMP1_C2PMSG_33                                                                                (0xbee261 + 0xb00000 / 4)
#define mmMP1_C2PMSG_33_BASE_IDX                                                                   0

#define FEATURE_MASK(feature) (1ULL << feature)
#define SMC_DPM_FEATURE ( \
 FEATURE_MASK(FEATURE_CCLK_DPM_BIT) | \
 FEATURE_MASK(FEATURE_FCLK_DPM_BIT)  | \
 FEATURE_MASK(FEATURE_LCLK_DPM_BIT)  | \
 FEATURE_MASK(FEATURE_GFX_DPM_BIT)  | \
 FEATURE_MASK(FEATURE_VCN_DPM_BIT)  | \
 FEATURE_MASK(FEATURE_DCFCLK_DPM_BIT)  | \
 FEATURE_MASK(FEATURE_SOCCLK_DPM_BIT)| \
 FEATURE_MASK(FEATURE_MP0CLK_DPM_BIT)| \
 FEATURE_MASK(FEATURE_SHUBCLK_DPM_BIT))

static struct cmn2asic_msg_mapping smu_v13_0_5_message_map[SMU_MSG_MAX_COUNT] = {
 MSG_MAP(TestMessage,                    PPSMC_MSG_TestMessage,   1),
 MSG_MAP(GetSmuVersion,                  PPSMC_MSG_GetSmuVersion,  1),
 MSG_MAP(PowerDownVcn,                    PPSMC_MSG_PowerDownVcn,   1),
 MSG_MAP(PowerUpVcn,                 PPSMC_MSG_PowerUpVcn,  1),
 MSG_MAP(SetHardMinVcn,                   PPSMC_MSG_SetHardMinVcn,   1),
 MSG_MAP(SetSoftMinGfxclk,                     PPSMC_MSG_SetSoftMinGfxclk,   1),
 MSG_MAP(Spare0,                  PPSMC_MSG_Spare0,  1),
 MSG_MAP(GfxDeviceDriverReset,            PPSMC_MSG_GfxDeviceDriverReset,  1),
 MSG_MAP(SetDriverDramAddrHigh,            PPSMC_MSG_SetDriverDramAddrHigh,      1),
 MSG_MAP(SetDriverDramAddrLow,          PPSMC_MSG_SetDriverDramAddrLow, 1),
 MSG_MAP(TransferTableSmu2Dram,           PPSMC_MSG_TransferTableSmu2Dram,  1),
 MSG_MAP(TransferTableDram2Smu,          PPSMC_MSG_TransferTableDram2Smu, 1),
 MSG_MAP(GetGfxclkFrequency,          PPSMC_MSG_GetGfxclkFrequency, 1),
 MSG_MAP(GetEnabledSmuFeatures,           PPSMC_MSG_GetEnabledSmuFeatures,  1),
 MSG_MAP(SetSoftMaxVcn,          PPSMC_MSG_SetSoftMaxVcn, 1),
 MSG_MAP(PowerDownJpeg,         PPSMC_MSG_PowerDownJpeg, 1),
 MSG_MAP(PowerUpJpeg,                  PPSMC_MSG_PowerUpJpeg,  1),
 MSG_MAP(SetSoftMaxGfxClk,             PPSMC_MSG_SetSoftMaxGfxClk,  1),
 MSG_MAP(SetHardMinGfxClk,               PPSMC_MSG_SetHardMinGfxClk,  1),
 MSG_MAP(AllowGfxOff,               PPSMC_MSG_AllowGfxOff,  1),
 MSG_MAP(DisallowGfxOff,               PPSMC_MSG_DisallowGfxOff,  1),
 MSG_MAP(SetSoftMinVcn,         PPSMC_MSG_SetSoftMinVcn, 1),
 MSG_MAP(GetDriverIfVersion,           PPSMC_MSG_GetDriverIfVersion,  1),
 MSG_MAP(PrepareMp1ForUnload,                  PPSMC_MSG_PrepareMp1ForUnload,  1),
};

static struct cmn2asic_mapping smu_v13_0_5_feature_mask_map[SMU_FEATURE_COUNT] = {
 FEA_MAP(DATA_CALCULATION),
 FEA_MAP(PPT),
 FEA_MAP(TDC),
 FEA_MAP(THERMAL),
 FEA_MAP(PROCHOT),
 FEA_MAP(CCLK_DPM),
 FEA_MAP_REVERSE(FCLK),
 FEA_MAP(LCLK_DPM),
 FEA_MAP(DF_CSTATES),
 FEA_MAP(FAN_CONTROLLER),
 FEA_MAP(CPPC),
 FEA_MAP_HALF_REVERSE(GFX),
 FEA_MAP(DS_GFXCLK),
 FEA_MAP(S0I3),
 FEA_MAP(VCN_DPM),
 FEA_MAP(DS_VCN),
 FEA_MAP(DCFCLK_DPM),
 FEA_MAP(ATHUB_PG),
 FEA_MAP_REVERSE(SOCCLK),
 FEA_MAP(SHUBCLK_DPM),
 FEA_MAP(GFXOFF),
};

static struct cmn2asic_mapping smu_v13_0_5_table_map[SMU_TABLE_COUNT] = {
 TAB_MAP_VALID(WATERMARKS),
 TAB_MAP_VALID(SMU_METRICS),
 TAB_MAP_VALID(CUSTOM_DPM),
 TAB_MAP_VALID(DPMCLOCKS),
};

static int smu_v13_0_5_init_smc_tables(struct smu_context *smu)
{
 struct smu_table_context *smu_table = &smu->smu_table;
 struct smu_table *tables = smu_table->tables;

 SMU_TABLE_INIT(tables, SMU_TABLE_WATERMARKS, sizeof(Watermarks_t),
  PAGE_SIZE, AMDGPU_GEM_DOMAIN_VRAM);
 SMU_TABLE_INIT(tables, SMU_TABLE_DPMCLOCKS, sizeof(DpmClocks_t),
  PAGE_SIZE, AMDGPU_GEM_DOMAIN_VRAM);
 SMU_TABLE_INIT(tables, SMU_TABLE_SMU_METRICS, sizeof(SmuMetrics_t),
  PAGE_SIZE, AMDGPU_GEM_DOMAIN_VRAM);

 smu_table->clocks_table = kzalloc(sizeof(DpmClocks_t), GFP_KERNEL);
 if (!smu_table->clocks_table)
  goto err0_out;

 smu_table->metrics_table = kzalloc(sizeof(SmuMetrics_t), GFP_KERNEL);
 if (!smu_table->metrics_table)
  goto err1_out;
 smu_table->metrics_time = 0;

 smu_table->watermarks_table = kzalloc(sizeof(Watermarks_t), GFP_KERNEL);
 if (!smu_table->watermarks_table)
  goto err2_out;

 smu_table->gpu_metrics_table_size = sizeof(struct gpu_metrics_v2_1);
 smu_table->gpu_metrics_table = kzalloc(smu_table->gpu_metrics_table_size, GFP_KERNEL);
 if (!smu_table->gpu_metrics_table)
  goto err3_out;

 return 0;

err3_out:
 kfree(smu_table->watermarks_table);
err2_out:
 kfree(smu_table->metrics_table);
err1_out:
 kfree(smu_table->clocks_table);
err0_out:
 return -ENOMEM;
}

static int smu_v13_0_5_fini_smc_tables(struct smu_context *smu)
{
 struct smu_table_context *smu_table = &smu->smu_table;

 kfree(smu_table->clocks_table);
 smu_table->clocks_table = NULL;

 kfree(smu_table->metrics_table);
 smu_table->metrics_table = NULL;

 kfree(smu_table->watermarks_table);
 smu_table->watermarks_table = NULL;

 kfree(smu_table->gpu_metrics_table);
 smu_table->gpu_metrics_table = NULL;

 return 0;
}

static int smu_v13_0_5_system_features_control(struct smu_context *smu, bool en)
{
 struct amdgpu_device *adev = smu->adev;
 int ret = 0;

 if (!en && !adev->in_s0ix)
  ret = smu_cmn_send_smc_msg(smu, SMU_MSG_PrepareMp1ForUnload, NULL);

 return ret;
}

static int smu_v13_0_5_dpm_set_vcn_enable(struct smu_context *smu,
        bool enable,
        int inst)
{
 int ret = 0;

 /* vcn dpm on is a prerequisite for vcn power gate messages */
 if (enable)
  ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_PowerUpVcn,
            0, NULL);
 else
  ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_PowerDownVcn,
            0, NULL);

 return ret;
}

static int smu_v13_0_5_dpm_set_jpeg_enable(struct smu_context *smu, bool enable)
{
 int ret = 0;

 if (enable)
  ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_PowerUpJpeg,
            0, NULL);
 else
  ret = smu_cmn_send_smc_msg_with_param(smu,
            SMU_MSG_PowerDownJpeg, 0,
            NULL);

 return ret;
}


static bool smu_v13_0_5_is_dpm_running(struct smu_context *smu)
{
 int ret = 0;
 uint64_t feature_enabled;

 ret = smu_cmn_get_enabled_mask(smu, &feature_enabled);

 if (ret)
  return false;

 return !!(feature_enabled & SMC_DPM_FEATURE);
}

static int smu_v13_0_5_mode_reset(struct smu_context *smu, int type)
{
 int ret = 0;

 ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_GfxDeviceDriverReset, type, NULL);
 if (ret)
  dev_err(smu->adev->dev, "Failed to mode reset!\n");

 return ret;
}

static int smu_v13_0_5_mode2_reset(struct smu_context *smu)
{
 return smu_v13_0_5_mode_reset(smu, SMU_RESET_MODE_2);
}

static int smu_v13_0_5_get_smu_metrics_data(struct smu_context *smu,
       MetricsMember_t member,
       uint32_t *value)
{
 struct smu_table_context *smu_table = &smu->smu_table;

 SmuMetrics_t *metrics = (SmuMetrics_t *)smu_table->metrics_table;
 int ret = 0;

 ret = smu_cmn_get_metrics_table(smu, NULL, false);
 if (ret)
  return ret;

 switch (member) {
 case METRICS_AVERAGE_GFXCLK:
  *value = metrics->GfxclkFrequency;
  break;
 case METRICS_AVERAGE_SOCCLK:
  *value = metrics->SocclkFrequency;
  break;
 case METRICS_AVERAGE_VCLK:
  *value = metrics->VclkFrequency;
  break;
 case METRICS_AVERAGE_DCLK:
  *value = metrics->DclkFrequency;
  break;
 case METRICS_AVERAGE_UCLK:
  *value = metrics->MemclkFrequency;
  break;
 case METRICS_AVERAGE_GFXACTIVITY:
  *value = metrics->GfxActivity / 100;
  break;
 case METRICS_AVERAGE_VCNACTIVITY:
  *value = metrics->UvdActivity / 100;
  break;
 case METRICS_CURR_SOCKETPOWER:
  *value = (metrics->CurrentSocketPower << 8) / 1000;
  break;
 case METRICS_TEMPERATURE_EDGE:
  *value = metrics->GfxTemperature / 100 *
  SMU_TEMPERATURE_UNITS_PER_CENTIGRADES;
  break;
 case METRICS_TEMPERATURE_HOTSPOT:
  *value = metrics->SocTemperature / 100 *
  SMU_TEMPERATURE_UNITS_PER_CENTIGRADES;
  break;
 case METRICS_THROTTLER_STATUS:
  *value = metrics->ThrottlerStatus;
  break;
 case METRICS_VOLTAGE_VDDGFX:
  *value = metrics->Voltage[0];
  break;
 case METRICS_VOLTAGE_VDDSOC:
  *value = metrics->Voltage[1];
  break;
 default:
  *value = UINT_MAX;
  break;
 }

 return ret;
}

static int smu_v13_0_5_read_sensor(struct smu_context *smu,
     enum amd_pp_sensors sensor,
     void *data, uint32_t *size)
{
 int ret = 0;

 if (!data || !size)
  return -EINVAL;

 switch (sensor) {
 case AMDGPU_PP_SENSOR_GPU_LOAD:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_AVERAGE_GFXACTIVITY,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_VCN_LOAD:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
       METRICS_AVERAGE_VCNACTIVITY,
       (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_GPU_INPUT_POWER:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_CURR_SOCKETPOWER,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_EDGE_TEMP:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_TEMPERATURE_EDGE,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_HOTSPOT_TEMP:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_TEMPERATURE_HOTSPOT,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_GFX_MCLK:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_AVERAGE_UCLK,
        (uint32_t *)data);
  *(uint32_t *)data *= 100;
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_GFX_SCLK:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_AVERAGE_GFXCLK,
        (uint32_t *)data);
  *(uint32_t *)data *= 100;
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_VDDGFX:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_VOLTAGE_VDDGFX,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_VDDNB:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
        METRICS_VOLTAGE_VDDSOC,
        (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_SS_APU_SHARE:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
             METRICS_SS_APU_SHARE,
             (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_SS_DGPU_SHARE:
  ret = smu_v13_0_5_get_smu_metrics_data(smu,
             METRICS_SS_DGPU_SHARE,
             (uint32_t *)data);
  *size = 4;
  break;
 case AMDGPU_PP_SENSOR_GPU_AVG_POWER:
 default:
  ret = -EOPNOTSUPP;
  break;
 }

 return ret;
}

static int smu_v13_0_5_set_watermarks_table(struct smu_context *smu,
    struct pp_smu_wm_range_sets *clock_ranges)
{
 int i;
 int ret = 0;
 Watermarks_t *table = smu->smu_table.watermarks_table;

 if (!table || !clock_ranges)
  return -EINVAL;

 if (clock_ranges) {
  if (clock_ranges->num_reader_wm_sets > NUM_WM_RANGES ||
   clock_ranges->num_writer_wm_sets > NUM_WM_RANGES)
   return -EINVAL;

  for (i = 0; i < clock_ranges->num_reader_wm_sets; i++) {
   table->WatermarkRow[WM_DCFCLK][i].MinClock =
    clock_ranges->reader_wm_sets[i].min_drain_clk_mhz;
   table->WatermarkRow[WM_DCFCLK][i].MaxClock =
    clock_ranges->reader_wm_sets[i].max_drain_clk_mhz;
   table->WatermarkRow[WM_DCFCLK][i].MinMclk =
    clock_ranges->reader_wm_sets[i].min_fill_clk_mhz;
   table->WatermarkRow[WM_DCFCLK][i].MaxMclk =
    clock_ranges->reader_wm_sets[i].max_fill_clk_mhz;

   table->WatermarkRow[WM_DCFCLK][i].WmSetting =
    clock_ranges->reader_wm_sets[i].wm_inst;
  }

  for (i = 0; i < clock_ranges->num_writer_wm_sets; i++) {
   table->WatermarkRow[WM_SOCCLK][i].MinClock =
    clock_ranges->writer_wm_sets[i].min_fill_clk_mhz;
   table->WatermarkRow[WM_SOCCLK][i].MaxClock =
    clock_ranges->writer_wm_sets[i].max_fill_clk_mhz;
   table->WatermarkRow[WM_SOCCLK][i].MinMclk =
    clock_ranges->writer_wm_sets[i].min_drain_clk_mhz;
   table->WatermarkRow[WM_SOCCLK][i].MaxMclk =
    clock_ranges->writer_wm_sets[i].max_drain_clk_mhz;

   table->WatermarkRow[WM_SOCCLK][i].WmSetting =
    clock_ranges->writer_wm_sets[i].wm_inst;
  }

  smu->watermarks_bitmap |= WATERMARKS_EXIST;
 }

 /* pass data to smu controller */
 if ((smu->watermarks_bitmap & WATERMARKS_EXIST) &&
      !(smu->watermarks_bitmap & WATERMARKS_LOADED)) {
  ret = smu_cmn_write_watermarks_table(smu);
  if (ret) {
   dev_err(smu->adev->dev, "Failed to update WMTABLE!");
   return ret;
  }
  smu->watermarks_bitmap |= WATERMARKS_LOADED;
 }

 return 0;
}

static ssize_t smu_v13_0_5_get_gpu_metrics(struct smu_context *smu,
      void **table)
{
 struct smu_table_context *smu_table = &smu->smu_table;
 struct gpu_metrics_v2_1 *gpu_metrics =
  (struct gpu_metrics_v2_1 *)smu_table->gpu_metrics_table;
 SmuMetrics_t metrics;
 int ret = 0;

 ret = smu_cmn_get_metrics_table(smu, &metrics, true);
 if (ret)
  return ret;

 smu_cmn_init_soft_gpu_metrics(gpu_metrics, 2, 1);

 gpu_metrics->temperature_gfx = metrics.GfxTemperature;
 gpu_metrics->temperature_soc = metrics.SocTemperature;

 gpu_metrics->average_gfx_activity = metrics.GfxActivity;
 gpu_metrics->average_mm_activity = metrics.UvdActivity;

 gpu_metrics->average_socket_power = metrics.CurrentSocketPower;
 gpu_metrics->average_gfx_power = metrics.Power[0];
 gpu_metrics->average_soc_power = metrics.Power[1];
 gpu_metrics->average_gfxclk_frequency = metrics.GfxclkFrequency;
 gpu_metrics->average_socclk_frequency = metrics.SocclkFrequency;
 gpu_metrics->average_uclk_frequency = metrics.MemclkFrequency;
 gpu_metrics->average_fclk_frequency = metrics.MemclkFrequency;
 gpu_metrics->average_vclk_frequency = metrics.VclkFrequency;
 gpu_metrics->average_dclk_frequency = metrics.DclkFrequency;
 gpu_metrics->throttle_status = metrics.ThrottlerStatus;
 gpu_metrics->system_clock_counter = ktime_get_boottime_ns();

 *table = (void *)gpu_metrics;

 return sizeof(struct gpu_metrics_v2_1);
}

static int smu_v13_0_5_set_default_dpm_tables(struct smu_context *smu)
{
 struct smu_table_context *smu_table = &smu->smu_table;

 return smu_cmn_update_table(smu, SMU_TABLE_DPMCLOCKS, 0, smu_table->clocks_table, false);
}

static int smu_v13_0_5_od_edit_dpm_table(struct smu_context *smu, enum PP_OD_DPM_TABLE_COMMAND type,
     long input[], uint32_t size)
{
 struct smu_dpm_context *smu_dpm = &(smu->smu_dpm);
 int ret = 0;

 /* Only allowed in manual mode */
 if (smu_dpm->dpm_level != AMD_DPM_FORCED_LEVEL_MANUAL)
  return -EINVAL;

 switch (type) {
 case PP_OD_EDIT_SCLK_VDDC_TABLE:
  if (size != 2) {
   dev_err(smu->adev->dev, "Input parameter number not correct\n");
   return -EINVAL;
  }

  if (input[0] == 0) {
   if (input[1] < smu->gfx_default_hard_min_freq) {
    dev_warn(smu->adev->dev,
     "Fine grain setting minimum sclk (%ld) MHz is less than the minimum allowed (%d) MHz\n",
     input[1], smu->gfx_default_hard_min_freq);
    return -EINVAL;
   }
   smu->gfx_actual_hard_min_freq = input[1];
  } else if (input[0] == 1) {
   if (input[1] > smu->gfx_default_soft_max_freq) {
    dev_warn(smu->adev->dev,
     "Fine grain setting maximum sclk (%ld) MHz is greater than the maximum allowed (%d) MHz\n",
     input[1], smu->gfx_default_soft_max_freq);
    return -EINVAL;
   }
   smu->gfx_actual_soft_max_freq = input[1];
  } else {
   return -EINVAL;
  }
  break;
 case PP_OD_RESTORE_DEFAULT_TABLE:
  if (size != 0) {
   dev_err(smu->adev->dev, "Input parameter number not correct\n");
   return -EINVAL;
  } else {
   smu->gfx_actual_hard_min_freq = smu->gfx_default_hard_min_freq;
   smu->gfx_actual_soft_max_freq = smu->gfx_default_soft_max_freq;
  }
  break;
 case PP_OD_COMMIT_DPM_TABLE:
  if (size != 0) {
   dev_err(smu->adev->dev, "Input parameter number not correct\n");
   return -EINVAL;
  } else {
   if (smu->gfx_actual_hard_min_freq > smu->gfx_actual_soft_max_freq) {
    dev_err(smu->adev->dev,
     "The setting minimum sclk (%d) MHz is greater than the setting maximum sclk (%d) MHz\n",
     smu->gfx_actual_hard_min_freq,
     smu->gfx_actual_soft_max_freq);
    return -EINVAL;
   }

   ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_SetHardMinGfxClk,
         smu->gfx_actual_hard_min_freq, NULL);
   if (ret) {
    dev_err(smu->adev->dev, "Set hard min sclk failed!");
    return ret;
   }

   ret = smu_cmn_send_smc_msg_with_param(smu, SMU_MSG_SetSoftMaxGfxClk,
         smu->gfx_actual_soft_max_freq, NULL);
   if (ret) {
    dev_err(smu->adev->dev, "Set soft max sclk failed!");
    return ret;
   }
  }
  break;
 default:
  return -ENOSYS;
 }

 return ret;
}

static int smu_v13_0_5_get_current_clk_freq(struct smu_context *smu,
      enum smu_clk_type clk_type,
      uint32_t *value)
{
 MetricsMember_t member_type;

 switch (clk_type) {
 case SMU_SOCCLK:
  member_type = METRICS_AVERAGE_SOCCLK;
  break;
 case SMU_VCLK:
     member_type = METRICS_AVERAGE_VCLK;
  break;
 case SMU_DCLK:
  member_type = METRICS_AVERAGE_DCLK;
  break;
 case SMU_MCLK:
  member_type = METRICS_AVERAGE_UCLK;
  break;
 case SMU_GFXCLK:
 case SMU_SCLK:
  return smu_cmn_send_smc_msg_with_param(smu,
    SMU_MSG_GetGfxclkFrequency, 0, value);
  break;
 default:
  return -EINVAL;
 }

 return smu_v13_0_5_get_smu_metrics_data(smu, member_type, value);
}

static int smu_v13_0_5_get_dpm_level_count(struct smu_context *smu,
      enum smu_clk_type clk_type,
      uint32_t *count)
{
 DpmClocks_t *clk_table = smu->smu_table.clocks_table;

 switch (clk_type) {
 case SMU_SOCCLK:
  *count = clk_table->NumSocClkLevelsEnabled;
  break;
 case SMU_VCLK:
  *count = clk_table->VcnClkLevelsEnabled;
  break;
 case SMU_DCLK:
  *count = clk_table->VcnClkLevelsEnabled;
  break;
 case SMU_MCLK:
  *count = clk_table->NumDfPstatesEnabled;
  break;
 case SMU_FCLK:
  *count = clk_table->NumDfPstatesEnabled;
  break;
 default:
  return -EINVAL;
 }

 return 0;
}

static int smu_v13_0_5_get_dpm_freq_by_index(struct smu_context *smu,
      enum smu_clk_type clk_type,
      uint32_t dpm_level,
      uint32_t *freq)
{
 DpmClocks_t *clk_table = smu->smu_table.clocks_table;

 if (!clk_table || clk_type >= SMU_CLK_COUNT)
  return -EINVAL;

 switch (clk_type) {
 case SMU_SOCCLK:
  if (dpm_level >= clk_table->NumSocClkLevelsEnabled)
   return -EINVAL;
  *freq = clk_table->SocClocks[dpm_level];
  break;
 case SMU_VCLK:
  if (dpm_level >= clk_table->VcnClkLevelsEnabled)
   return -EINVAL;
  *freq = clk_table->VClocks[dpm_level];
  break;
 case SMU_DCLK:
  if (dpm_level >= clk_table->VcnClkLevelsEnabled)
   return -EINVAL;
  *freq = clk_table->DClocks[dpm_level];
  break;
 case SMU_UCLK:
 case SMU_MCLK:
  if (dpm_level >= clk_table->NumDfPstatesEnabled)
   return -EINVAL;
  *freq = clk_table->DfPstateTable[dpm_level].MemClk;
  break;
 case SMU_FCLK:
  if (dpm_level >= clk_table->NumDfPstatesEnabled)
   return -EINVAL;
  *freq = clk_table->DfPstateTable[dpm_level].FClk;
  break;
 default:
  return -EINVAL;
 }

 return 0;
}

static bool smu_v13_0_5_clk_dpm_is_enabled(struct smu_context *smu,
      enum smu_clk_type clk_type)
{
 enum smu_feature_mask feature_id = 0;

 switch (clk_type) {
 case SMU_MCLK:
 case SMU_UCLK:
 case SMU_FCLK:
  feature_id = SMU_FEATURE_DPM_FCLK_BIT;
  break;
 case SMU_GFXCLK:
 case SMU_SCLK:
  feature_id = SMU_FEATURE_DPM_GFXCLK_BIT;
  break;
 case SMU_SOCCLK:
  feature_id = SMU_FEATURE_DPM_SOCCLK_BIT;
  break;
 case SMU_VCLK:
 case SMU_DCLK:
  feature_id = SMU_FEATURE_VCN_DPM_BIT;
  break;
 default:
  return true;
 }

 return smu_cmn_feature_is_enabled(smu, feature_id);
}

static int smu_v13_0_5_get_dpm_ultimate_freq(struct smu_context *smu,
       enum smu_clk_type clk_type,
       uint32_t *min,
       uint32_t *max)
{
 DpmClocks_t *clk_table = smu->smu_table.clocks_table;
 uint32_t clock_limit;
 uint32_t max_dpm_level, min_dpm_level;
 int ret = 0;

 if (!smu_v13_0_5_clk_dpm_is_enabled(smu, clk_type)) {
  ret = smu_v13_0_get_boot_freq_by_index(smu, clk_type, &clock_limit);
  if (ret)
   return ret;

  /* clock in Mhz unit */
  if (min)
   *min = clock_limit / 100;
  if (max)
   *max = clock_limit / 100;

  return 0;
 }

 if (max) {
  switch (clk_type) {
  case SMU_GFXCLK:
  case SMU_SCLK:
   *max = clk_table->MaxGfxClk;
   break;
  case SMU_MCLK:
  case SMU_UCLK:
  case SMU_FCLK:
   max_dpm_level = 0;
   break;
  case SMU_SOCCLK:
   max_dpm_level = clk_table->NumSocClkLevelsEnabled - 1;
   break;
  case SMU_VCLK:
  case SMU_DCLK:
   max_dpm_level = clk_table->VcnClkLevelsEnabled - 1;
   break;
  default:
   ret = -EINVAL;
   goto failed;
  }

  if (clk_type != SMU_GFXCLK && clk_type != SMU_SCLK) {
   ret = smu_v13_0_5_get_dpm_freq_by_index(smu, clk_type, max_dpm_level, max);
   if (ret)
    goto failed;
  }
 }

 if (min) {
  switch (clk_type) {
  case SMU_GFXCLK:
  case SMU_SCLK:
   *min = clk_table->MinGfxClk;
   break;
  case SMU_MCLK:
  case SMU_UCLK:
  case SMU_FCLK:
   min_dpm_level = clk_table->NumDfPstatesEnabled - 1;
   break;
  case SMU_SOCCLK:
   min_dpm_level = 0;
   break;
  case SMU_VCLK:
  case SMU_DCLK:
   min_dpm_level = 0;
   break;
  default:
   ret = -EINVAL;
   goto failed;
  }

  if (clk_type != SMU_GFXCLK && clk_type != SMU_SCLK) {
   ret = smu_v13_0_5_get_dpm_freq_by_index(smu, clk_type, min_dpm_level, min);
   if (ret)
    goto failed;
  }
 }

failed:
 return ret;
}

static int smu_v13_0_5_set_soft_freq_limited_range(struct smu_context *smu,
         enum smu_clk_type clk_type,
         uint32_t min,
         uint32_t max,
         bool automatic)
{
 enum smu_message_type msg_set_min, msg_set_max;
 uint32_t min_clk = min;
 uint32_t max_clk = max;
 int ret = 0;

 if (!smu_v13_0_5_clk_dpm_is_enabled(smu, clk_type))
  return -EINVAL;

 switch (clk_type) {
 case SMU_GFXCLK:
 case SMU_SCLK:
  msg_set_min = SMU_MSG_SetHardMinGfxClk;
  msg_set_max = SMU_MSG_SetSoftMaxGfxClk;
  break;
 case SMU_VCLK:
 case SMU_DCLK:
  msg_set_min = SMU_MSG_SetHardMinVcn;
  msg_set_max = SMU_MSG_SetSoftMaxVcn;
  break;
 default:
  return -EINVAL;
 }

 if (clk_type == SMU_VCLK) {
  min_clk = min << SMU_13_VCLK_SHIFT;
  max_clk = max << SMU_13_VCLK_SHIFT;
 }

 ret = smu_cmn_send_smc_msg_with_param(smu, msg_set_min, min_clk, NULL);
 if (ret)
  goto out;

 ret = smu_cmn_send_smc_msg_with_param(smu, msg_set_max, max_clk, NULL);
 if (ret)
  goto out;

out:
 return ret;
}

static int smu_v13_0_5_print_clk_levels(struct smu_context *smu,
    enum smu_clk_type clk_type, char *buf)
{
 int i, idx, size = 0, ret = 0;
 uint32_t cur_value = 0, value = 0, count = 0;
 uint32_t min = 0, max = 0;

 smu_cmn_get_sysfs_buf(&buf, &size);

 switch (clk_type) {
 case SMU_OD_SCLK:
  size += sysfs_emit_at(buf, size, "%s:\n""OD_SCLK");
  size += sysfs_emit_at(buf, size, "0: %10uMhz\n",
  (smu->gfx_actual_hard_min_freq > 0) ? smu->gfx_actual_hard_min_freq : smu->gfx_default_hard_min_freq);
  size += sysfs_emit_at(buf, size, "1: %10uMhz\n",
  (smu->gfx_actual_soft_max_freq > 0) ? smu->gfx_actual_soft_max_freq : smu->gfx_default_soft_max_freq);
  break;
 case SMU_OD_RANGE:
  size += sysfs_emit_at(buf, size, "%s:\n""OD_RANGE");
  size += sysfs_emit_at(buf, size, "SCLK: %7uMhz %10uMhz\n",
      smu->gfx_default_hard_min_freq, smu->gfx_default_soft_max_freq);
  break;
 case SMU_SOCCLK:
 case SMU_VCLK:
 case SMU_DCLK:
 case SMU_MCLK:
  ret = smu_v13_0_5_get_current_clk_freq(smu, clk_type, &cur_value);
  if (ret)
   goto print_clk_out;

  ret = smu_v13_0_5_get_dpm_level_count(smu, clk_type, &count);
  if (ret)
   goto print_clk_out;

  for (i = 0; i < count; i++) {
   idx = (clk_type == SMU_MCLK) ? (count - i - 1) : i;
   ret = smu_v13_0_5_get_dpm_freq_by_index(smu, clk_type, idx, &value);
   if (ret)
    goto print_clk_out;

   size += sysfs_emit_at(buf, size, "%d: %uMhz %s\n", i, value,
     cur_value == value ? "*" : "");
  }
  break;
 case SMU_GFXCLK:
 case SMU_SCLK:
  ret = smu_v13_0_5_get_current_clk_freq(smu, clk_type, &cur_value);
  if (ret)
   goto print_clk_out;
  min = (smu->gfx_actual_hard_min_freq > 0) ? smu->gfx_actual_hard_min_freq : smu->gfx_default_hard_min_freq;
  max = (smu->gfx_actual_soft_max_freq > 0) ? smu->gfx_actual_soft_max_freq : smu->gfx_default_soft_max_freq;
  if (cur_value  == max)
   i = 2;
  else if (cur_value == min)
   i = 0;
  else
   i = 1;
  size += sysfs_emit_at(buf, size, "0: %uMhz %s\n", min,
    i == 0 ? "*" : "");
  size += sysfs_emit_at(buf, size, "1: %uMhz %s\n",
    i == 1 ? cur_value : SMU_13_0_5_UMD_PSTATE_GFXCLK,
    i == 1 ? "*" : "");
  size += sysfs_emit_at(buf, size, "2: %uMhz %s\n", max,
    i == 2 ? "*" : "");
  break;
 default:
  break;
 }

print_clk_out:
 return size;
}


static int smu_v13_0_5_force_clk_levels(struct smu_context *smu,
    enum smu_clk_type clk_type, uint32_t mask)
{
 uint32_t soft_min_level = 0, soft_max_level = 0;
 uint32_t min_freq = 0, max_freq = 0;
 int ret = 0;

 soft_min_level = mask ? (ffs(mask) - 1) : 0;
 soft_max_level = mask ? (fls(mask) - 1) : 0;

 switch (clk_type) {
 case SMU_VCLK:
 case SMU_DCLK:
  ret = smu_v13_0_5_get_dpm_freq_by_index(smu, clk_type, soft_min_level, &min_freq);
  if (ret)
   goto force_level_out;

  ret = smu_v13_0_5_get_dpm_freq_by_index(smu, clk_type, soft_max_level, &max_freq);
  if (ret)
   goto force_level_out;

  ret = smu_v13_0_5_set_soft_freq_limited_range(smu, clk_type, min_freq, max_freq, false);
  if (ret)
   goto force_level_out;
  break;
 default:
  ret = -EINVAL;
  break;
 }

force_level_out:
 return ret;
}

static int smu_v13_0_5_get_dpm_profile_freq(struct smu_context *smu,
     enum amd_dpm_forced_level level,
     enum smu_clk_type clk_type,
     uint32_t *min_clk,
     uint32_t *max_clk)
{
 int ret = 0;
 uint32_t clk_limit = 0;

 switch (clk_type) {
 case SMU_GFXCLK:
 case SMU_SCLK:
  clk_limit = SMU_13_0_5_UMD_PSTATE_GFXCLK;
  if (level == AMD_DPM_FORCED_LEVEL_PROFILE_PEAK)
   smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_SCLK, NULL, &clk_limit);
  else if (level == AMD_DPM_FORCED_LEVEL_PROFILE_MIN_SCLK)
   smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_SCLK, &clk_limit, NULL);
  break;
 case SMU_VCLK:
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_VCLK, NULL, &clk_limit);
  break;
 case SMU_DCLK:
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_DCLK, NULL, &clk_limit);
  break;
 default:
  ret = -EINVAL;
  break;
 }
 *min_clk = *max_clk = clk_limit;
 return ret;
}

static int smu_v13_0_5_set_performance_level(struct smu_context *smu,
      enum amd_dpm_forced_level level)
{
 struct amdgpu_device *adev = smu->adev;
 uint32_t sclk_min = 0, sclk_max = 0;
 uint32_t vclk_min = 0, vclk_max = 0;
 uint32_t dclk_min = 0, dclk_max = 0;
 int ret = 0;

 switch (level) {
 case AMD_DPM_FORCED_LEVEL_HIGH:
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_SCLK, NULL, &sclk_max);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_VCLK, NULL, &vclk_max);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_DCLK, NULL, &dclk_max);
  sclk_min = sclk_max;
  vclk_min = vclk_max;
  dclk_min = dclk_max;
  break;
 case AMD_DPM_FORCED_LEVEL_LOW:
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_SCLK, &sclk_min, NULL);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_VCLK, &vclk_min, NULL);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_DCLK, &dclk_min, NULL);
  sclk_max = sclk_min;
  vclk_max = vclk_min;
  dclk_max = dclk_min;
  break;
 case AMD_DPM_FORCED_LEVEL_AUTO:
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_SCLK, &sclk_min, &sclk_max);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_VCLK, &vclk_min, &vclk_max);
  smu_v13_0_5_get_dpm_ultimate_freq(smu, SMU_DCLK, &dclk_min, &dclk_max);
  break;
 case AMD_DPM_FORCED_LEVEL_PROFILE_STANDARD:
 case AMD_DPM_FORCED_LEVEL_PROFILE_MIN_SCLK:
 case AMD_DPM_FORCED_LEVEL_PROFILE_PEAK:
  smu_v13_0_5_get_dpm_profile_freq(smu, level, SMU_SCLK, &sclk_min, &sclk_max);
  smu_v13_0_5_get_dpm_profile_freq(smu, level, SMU_VCLK, &vclk_min, &vclk_max);
  smu_v13_0_5_get_dpm_profile_freq(smu, level, SMU_DCLK, &dclk_min, &dclk_max);
  break;
 case AMD_DPM_FORCED_LEVEL_PROFILE_MIN_MCLK:
  dev_err(adev->dev, "The performance level profile_min_mclk is not supported.");
  return -EOPNOTSUPP;
 case AMD_DPM_FORCED_LEVEL_MANUAL:
 case AMD_DPM_FORCED_LEVEL_PROFILE_EXIT:
  return 0;
 default:
  dev_err(adev->dev, "Invalid performance level %d\n", level);
  return -EINVAL;
 }

 if (sclk_min && sclk_max) {
  ret = smu_v13_0_5_set_soft_freq_limited_range(smu,
             SMU_SCLK,
             sclk_min,
             sclk_max,
             false);
  if (ret)
   return ret;

  smu->gfx_actual_hard_min_freq = sclk_min;
  smu->gfx_actual_soft_max_freq = sclk_max;
 }

 if (vclk_min && vclk_max) {
  ret = smu_v13_0_5_set_soft_freq_limited_range(smu,
             SMU_VCLK,
             vclk_min,
             vclk_max,
             false);
  if (ret)
   return ret;
 }

 if (dclk_min && dclk_max) {
  ret = smu_v13_0_5_set_soft_freq_limited_range(smu,
             SMU_DCLK,
             dclk_min,
             dclk_max,
             false);
  if (ret)
   return ret;
 }
 return ret;
}

static int smu_v13_0_5_set_fine_grain_gfx_freq_parameters(struct smu_context *smu)
{
 DpmClocks_t *clk_table = smu->smu_table.clocks_table;

 smu->gfx_default_hard_min_freq = clk_table->MinGfxClk;
 smu->gfx_default_soft_max_freq = clk_table->MaxGfxClk;
 smu->gfx_actual_hard_min_freq = 0;
 smu->gfx_actual_soft_max_freq = 0;

 return 0;
}

static const struct pptable_funcs smu_v13_0_5_ppt_funcs = {
 .check_fw_status = smu_v13_0_check_fw_status,
 .check_fw_version = smu_v13_0_check_fw_version,
 .init_smc_tables = smu_v13_0_5_init_smc_tables,
 .fini_smc_tables = smu_v13_0_5_fini_smc_tables,
 .get_vbios_bootup_values = smu_v13_0_get_vbios_bootup_values,
 .system_features_control = smu_v13_0_5_system_features_control,
 .send_smc_msg_with_param = smu_cmn_send_smc_msg_with_param,
 .send_smc_msg = smu_cmn_send_smc_msg,
 .dpm_set_vcn_enable = smu_v13_0_5_dpm_set_vcn_enable,
 .dpm_set_jpeg_enable = smu_v13_0_5_dpm_set_jpeg_enable,
 .set_default_dpm_table = smu_v13_0_5_set_default_dpm_tables,
 .read_sensor = smu_v13_0_5_read_sensor,
 .is_dpm_running = smu_v13_0_5_is_dpm_running,
 .set_watermarks_table = smu_v13_0_5_set_watermarks_table,
 .get_gpu_metrics = smu_v13_0_5_get_gpu_metrics,
 .get_enabled_mask = smu_cmn_get_enabled_mask,
 .get_pp_feature_mask = smu_cmn_get_pp_feature_mask,
 .set_driver_table_location = smu_v13_0_set_driver_table_location,
 .gfx_off_control = smu_v13_0_gfx_off_control,
 .mode2_reset = smu_v13_0_5_mode2_reset,
 .get_dpm_ultimate_freq = smu_v13_0_5_get_dpm_ultimate_freq,
 .od_edit_dpm_table = smu_v13_0_5_od_edit_dpm_table,
 .print_clk_levels = smu_v13_0_5_print_clk_levels,
 .force_clk_levels = smu_v13_0_5_force_clk_levels,
 .set_performance_level = smu_v13_0_5_set_performance_level,
 .set_fine_grain_gfx_freq_parameters = smu_v13_0_5_set_fine_grain_gfx_freq_parameters,
};

void smu_v13_0_5_set_ppt_funcs(struct smu_context *smu)
{
 struct amdgpu_device *adev = smu->adev;

 smu->ppt_funcs = &smu_v13_0_5_ppt_funcs;
 smu->message_map = smu_v13_0_5_message_map;
 smu->feature_map = smu_v13_0_5_feature_mask_map;
 smu->table_map = smu_v13_0_5_table_map;
 smu->is_apu = true;
 smu->smc_driver_if_version = SMU13_0_5_DRIVER_IF_VERSION;
 smu->param_reg = SOC15_REG_OFFSET(MP1, 0, mmMP1_C2PMSG_34);
 smu->msg_reg = SOC15_REG_OFFSET(MP1, 0, mmMP1_C2PMSG_2);
 smu->resp_reg = SOC15_REG_OFFSET(MP1, 0, mmMP1_C2PMSG_33);
}

Messung V0.5
C=98 H=94 G=95

¤ Dauer der Verarbeitung: 0.21 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.






                                                                                                                                                                                                                                                                                                                                                                                                     


Neuigkeiten

     Aktuelles
     Motto des Tages

Software

     Produkte
     Quellcodebibliothek

Aktivitäten

     Artikel über Sicherheit
     Anleitung zur Aktivierung von SSL

Muße

     Gedichte
     Musik
     Bilder

Jenseits des Üblichen ....
    

Besucherstatistik

Besucherstatistik

Monitoring

Montastic status badge