Quellcodebibliothek Statistik Leitseite products/sources/formale Sprachen/C/Linux/arch/openrisc/mm/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 6 kB image not shown  

Quelle  init.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0-or-later
/*
 * OpenRISC idle.c
 *
 * Linux architectural port borrowing liberally from similar works of
 * others.  All original copyrights apply as per the original source
 * declaration.
 *
 * Modifications for the OpenRISC architecture:
 * Copyright (C) 2003 Matjaz Breskvar <phoenix@bsemi.com>
 * Copyright (C) 2010-2011 Jonas Bonn <jonas@southpole.se>
 */


#include <linux/signal.h>
#include <linux/sched.h>
#include <linux/kernel.h>
#include <linux/errno.h>
#include <linux/string.h>
#include <linux/types.h>
#include <linux/ptrace.h>
#include <linux/mman.h>
#include <linux/mm.h>
#include <linux/swap.h>
#include <linux/smp.h>
#include <linux/memblock.h>
#include <linux/init.h>
#include <linux/delay.h>
#include <linux/pagemap.h>

#include <asm/pgalloc.h>
#include <asm/dma.h>
#include <asm/io.h>
#include <asm/tlb.h>
#include <asm/mmu_context.h>
#include <asm/fixmap.h>
#include <asm/tlbflush.h>
#include <asm/sections.h>
#include <asm/cacheflush.h>

int mem_init_done;

static void __init zone_sizes_init(void)
{
 unsigned long max_zone_pfn[MAX_NR_ZONES] = { 0 };

 /*
 * We use only ZONE_NORMAL
 */

 max_zone_pfn[ZONE_NORMAL] = max_low_pfn;

 free_area_init(max_zone_pfn);
}

extern const char _s_kernel_ro[], _e_kernel_ro[];

/*
 * Map all physical memory into kernel's address space.
 *
 * This is explicitly coded for two-level page tables, so if you need
 * something else then this needs to change.
 */

static void __init map_ram(void)
{
 phys_addr_t start, end;
 unsigned long v, p, e;
 pgprot_t prot;
 pgd_t *pge;
 p4d_t *p4e;
 pud_t *pue;
 pmd_t *pme;
 pte_t *pte;
 u64 i;
 /* These mark extents of read-only kernel pages...
 * ...from vmlinux.lds.S
 */


 v = PAGE_OFFSET;

 for_each_mem_range(i, &start, &end) {
  p = (u32) start & PAGE_MASK;
  e = (u32) end;

  v = (u32) __va(p);
  pge = pgd_offset_k(v);

  while (p < e) {
   int j;
   p4e = p4d_offset(pge, v);
   pue = pud_offset(p4e, v);
   pme = pmd_offset(pue, v);

   if ((u32) pue != (u32) pge || (u32) pme != (u32) pge) {
    panic("%s: OR1K kernel hardcoded for "
          "two-level page tables",
         __func__);
   }

   /* Alloc one page for holding PTE's... */
   pte = memblock_alloc_raw(PAGE_SIZE, PAGE_SIZE);
   if (!pte)
    panic("%s: Failed to allocate page for PTEs\n",
          __func__);
   set_pmd(pme, __pmd(_KERNPG_TABLE + __pa(pte)));

   /* Fill the newly allocated page with PTE'S */
   for (j = 0; p < e && j < PTRS_PER_PTE;
        v += PAGE_SIZE, p += PAGE_SIZE, j++, pte++) {
    if (v >= (u32) _e_kernel_ro ||
        v < (u32) _s_kernel_ro)
     prot = PAGE_KERNEL;
    else
     prot = PAGE_KERNEL_RO;

    set_pte(pte, mk_pte_phys(p, prot));
   }

   pge++;
  }

  printk(KERN_INFO "%s: Memory: 0x%x-0x%x\n", __func__,
         start, end);
 }
}

void __init paging_init(void)
{
 int i;

 printk(KERN_INFO "Setting up paging and PTEs.\n");

 /* clear out the init_mm.pgd that will contain the kernel's mappings */

 for (i = 0; i < PTRS_PER_PGD; i++)
  swapper_pg_dir[i] = __pgd(0);

 /* make sure the current pgd table points to something sane
 * (even if it is most probably not used until the next
 *  switch_mm)
 */

 current_pgd[smp_processor_id()] = init_mm.pgd;

 map_ram();

 zone_sizes_init();

 /* self modifying code ;) */
 /* Since the old TLB miss handler has been running up until now,
 * the kernel pages are still all RW, so we can still modify the
 * text directly... after this change and a TLB flush, the kernel
 * pages will become RO.
 */

 {
  extern unsigned long dtlb_miss_handler;
  extern unsigned long itlb_miss_handler;

  unsigned long *dtlb_vector = __va(0x900);
  unsigned long *itlb_vector = __va(0xa00);

  printk(KERN_INFO "itlb_miss_handler %p\n", &itlb_miss_handler);
  *itlb_vector = ((unsigned long)&itlb_miss_handler -
    (unsigned long)itlb_vector) >> 2;

  /* Soft ordering constraint to ensure that dtlb_vector is
 * the last thing updated
 */

  barrier();

  printk(KERN_INFO "dtlb_miss_handler %p\n", &dtlb_miss_handler);
  *dtlb_vector = ((unsigned long)&dtlb_miss_handler -
    (unsigned long)dtlb_vector) >> 2;

 }

 /* Soft ordering constraint to ensure that cache invalidation and
 * TLB flush really happen _after_ code has been modified.
 */

 barrier();

 /* Invalidate instruction caches after code modification */
 local_icache_block_inv(0x900);
 local_icache_block_inv(0xa00);

 /* New TLB miss handlers and kernel page tables are in now place.
 * Make sure that page flags get updated for all pages in TLB by
 * flushing the TLB and forcing all TLB entries to be recreated
 * from their page table flags.
 */

 flush_tlb_all();
}

/* References to section boundaries */

void __init mem_init(void)
{
 BUG_ON(!mem_map);

 /* clear the zero-page */
 memset((void *)empty_zero_page, 0, PAGE_SIZE);

 printk("mem_init_done ...........................................\n");
 mem_init_done = 1;
 return;
}

static int __init map_page(unsigned long va, phys_addr_t pa, pgprot_t prot)
{
 p4d_t *p4d;
 pud_t *pud;
 pmd_t *pmd;
 pte_t *pte;

 p4d = p4d_offset(pgd_offset_k(va), va);
 pud = pud_offset(p4d, va);
 pmd = pmd_offset(pud, va);
 pte = pte_alloc_kernel(pmd, va);

 if (pte == NULL)
  return -ENOMEM;

 if (pgprot_val(prot))
  set_pte_at(&init_mm, va, pte, pfn_pte(pa >> PAGE_SHIFT, prot));
 else
  pte_clear(&init_mm, va, pte);

 local_flush_tlb_page(NULL, va);
 return 0;
}

void __init __set_fixmap(enum fixed_addresses idx,
    phys_addr_t phys, pgprot_t prot)
{
 unsigned long address = __fix_to_virt(idx);

 if (idx >= __end_of_fixed_addresses) {
  BUG();
  return;
 }

 map_page(address, phys, prot);
}

static const pgprot_t protection_map[16] = {
 [VM_NONE]     = PAGE_NONE,
 [VM_READ]     = PAGE_READONLY_X,
 [VM_WRITE]     = PAGE_COPY,
 [VM_WRITE | VM_READ]    = PAGE_COPY_X,
 [VM_EXEC]     = PAGE_READONLY,
 [VM_EXEC | VM_READ]    = PAGE_READONLY_X,
 [VM_EXEC | VM_WRITE]    = PAGE_COPY,
 [VM_EXEC | VM_WRITE | VM_READ]   = PAGE_COPY_X,
 [VM_SHARED]     = PAGE_NONE,
 [VM_SHARED | VM_READ]    = PAGE_READONLY_X,
 [VM_SHARED | VM_WRITE]    = PAGE_SHARED,
 [VM_SHARED | VM_WRITE | VM_READ]  = PAGE_SHARED_X,
 [VM_SHARED | VM_EXEC]    = PAGE_READONLY,
 [VM_SHARED | VM_EXEC | VM_READ]   = PAGE_READONLY_X,
 [VM_SHARED | VM_EXEC | VM_WRITE]  = PAGE_SHARED,
 [VM_SHARED | VM_EXEC | VM_WRITE | VM_READ] = PAGE_SHARED_X
};
DECLARE_VM_GET_PAGE_PROT

Messung V0.5
C=93 H=92 G=92

¤ Dauer der Verarbeitung: 0.18 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.