zoukankan      html  css  js  c++  java
  • Java程序员应该掌握的底层知识

    CPU的制作过程

     https://haokan.baidu.com/v?vid=11928468945249380709&pd=bjh&fr=bjhauthor&type=video

    CPU是如果制作的

     https://www.sohu.com/a/255397866_468626

    CPU的原理

    计算机需要解决的最根本问题:如何代表数字

    晶体管是如何工作的:

    https://haokan.baidu.com/v?vid=16026741635006191272&pd=bjh&fr=bjhauthor&type=video

    晶体管的工作原理:

    https://www.bilibili.com/video/av47388949?p=2

    汇编语言的执行过程

    汇编语言的本质:机器语言的助记符  其实就是机器语言

    执行过程 :计算机通电->cpu读取内存中的程序(电信号输入)->时钟发生器不断震荡通电->推动cpu内部一步一步执行(执行多少取决于指令需要的时钟周期)->计算机完成->写回(信号)->写给显卡输出(图形)

    计算机的组成

     CPU的组成

    PC -> Program Counter 程序计数器 (记录当前指令地址)

    Registers -> 暂时存储CPU计算需要用到的数据

    ALU -> Arithmetic & Logic Unit 运算单元

    CU -> Control Unit 控制单元

    MMU -> Memory Management Unit 内存管理单元

    CPU的乱序执行

    cpu在进行读等待的同时执行指令,是cpu乱序的根源不是乱,而是提高效率

    禁止乱序

    CPU层面:Intel -> 原语(mfence lfence sfence) 或者锁总线

    JVM层级:8个hanppens-before原则 4个内存屏障 (LL LS SL SS)

    as-if-serial : 不管硬件什么顺序,单线程执行的结果不变,看上去像是serial

    CPU 合并写

    Write Combining Buffer

    一般是4个字节

    由于ALU速度太快,所以在写入L1的同时,写入一个WC Buffer,满了之后,再直接更新到L2

    UMA:统一访问内存

    NUMA

    Non Uniform Memory Access

    ZGC - NUMA aware

    分配内存会优先分配该线程所在CPU的最近内存

     

    系统启动过程

     通电 -> bios uefi 工作 -> 自检 -> 到硬盘固定位置加载bootloader -> 读取可配置信息 -> CMOS-》0x7c00(系统内存引导地址)-》操作系统

    OS

    内核分类

    微内核 - 弹性部署 5G IoT

    宏内核 - PC phone

    外核 - 科研 实验中 为应用定制操作系统 (多租户 request-based GC JVM)

    用户态与内核态

    cpu分不同的指令级别

    linux内核跑在ring 0级, 用户程序跑在ring 3,对于系统的关键访问,需要经过kernel的同意,保证系统健壮性

    内核执行的操作 - > 200多个系统调用 sendfile read write pthread fork

    JVM -> 站在OS老大的角度,就是个普通程序

    进程 线程 纤程 中断

    面试高频:进程和线程有什么区别?

    答案:进程就是一个程序运行起来的状态,线程是一个进程中的不同的执行路径。专业:进程是OS分配资源的基本单位,线程是执行调度的基本单位。分配资源最重要的是:独立的内存空间,线程调度执行(线程共享进程的内存空间,没有自己独立的内存空间)

    纤程:用户态的线程,线程中的线程,切换和调度不需要经过OS

    优势:1:占有资源很少 OS : 线程1M Fiber:4K 2:切换比较简单 3:启动很多个10W+

    目前2020 3 22支持内置纤程的语言:Kotlin Scala Go Python(lib)... Java? (open jdk : loom)

     

    进程调度

    2.6采用CFS调度策略:Completely Fair Scheduler

    按优先级分配时间片的比例,记录每个进程的执行时间,如果有一个进程执行时间不到他应该分配的比例,优先执行

    默认调度策略:

    实时 (急诊) 优先级分高低 - FIFO (First In First Out),优先级一样 - RR(Round Robin) 普通: CFS

     

    中断

    硬件跟操作系统内核打交道的一种机制

    软中断(80中断) == 系统调用

    系统调用:int 0x80 或者 sysenter原语

    通过ax寄存器填入调用号

    参数通过bx cx dx si di传入内核

    返回值通过ax返回

    java读网络 – jvm read() – c库read() - >

    内核空间 -> system_call() (系统调用处理程序)

    -> sys_read()

    从汇编角度理解软中断

    搭建汇编环境

    yum install nasm

     
     
     
     
     
     
    ;hello.asm
    ;write(int fd, const void *buffer, size_t nbytes)
    ;fd 文件描述符 file descriptor - linux下一切皆文件
    section data
        msg db "Hello", 0xA
        len equ $ - msg
    section .text
    global _start
    _start:
        mov edx, len
        mov ecx, msg
        mov ebx, 1 ;文件描述符1 std_out
        mov eax, 4 ;write函数系统调用号 4
        int 0x80
        mov ebx, 0
        mov eax, 1 ;exit函数系统调用号
        int 0x80
     

    编译:nasm -f elf hello.asm -o hello.o

    链接:ld -m elf_i386 -o hello hello.o

    一个程序的执行过程,要么处于用户态,要么处于内核态

    内存管理

    DOS时代 - 同一时间只能有一个进程在运行(也有一些特殊算法可以支持多进程)

    windows9x - 多个进程装入内存 1:内存不够用 2:互相打扰

    为了解决这两个问题,诞生了现在的内存管理系统:虚拟地址 分页装入 软硬件结合寻址

    1. 分页(内存不够用),内存中分成固定大小的页框(4K),把程序(硬盘上)分成4K大小的块,用到哪一块,加载那一块,加载的过程中,如果内存已经满了,会把最不常用的一块放到swap分区, 把最新的一块加载进来,这个就是著名的LRU算法

      1. LRU算法 LeetCode146题,头条要求手撕,阿里去年也要求手撕
      2. Least Recently Used 最不常用
      3. 哈希表(保证 查找操作O(1)) + 链表 (保证 排序操作和新增操作 O(1))) 
      4. 双向链表 (保证 左边指针 指向右边块)
    2. 虚拟内存(解决相互打扰问题)

      1. DOS Win31 ... 互相干掉
      2. 为了保证互不影响 - 让进程工作在虚拟空间,程序中用到的空间地址不再是直接的物理地址,而是虚拟的地址,这样,A进程永远不可能访问到B进程的空间
      3. 虚拟空间多大呢?寻址空间 - 64位系统 2 ^ 64,比物理空间大很多 ,单位是byte
      4. 站在虚拟的角度,进程是独享整个系统 + CPU
      5. 内存映射:偏移量 + 段的基地址 = 线性地址 (虚拟空间)
      6. 线性地址通过 OS + MMU(硬件 Memory Management Unit)
    3. 缺页中断(不是很重要):

      1. 需要用到页面内存中没有,产生缺页异常(中断),由内核处理并加载

    ZGC

    算法叫做:Colored Pointer

    GC信息记录在指针上,不是记录在头部, immediate memory use

    42位指针 寻址空间4T JDK13 -> 16T 目前为止最大16T 2^44

    CPU如何区分一个立即数 和 一条指令

    总线内部分为:数据总线 地址总线 控制总线

    地址总线目前:48位

    颜色指针本质上包含了地址映射的概念

    内核同步机制

    关于同步理论的一些基本概念

    •临界区(critical area): 访问或操作共享数据的代码段 简单理解:synchronized大括号中部分(原子性)

    •竞争条件(race conditions)两个线程同时拥有临界区的执行权

    •数据不一致:data unconsistency 由竞争条件引起的数据破坏

    •同步(synchronization)避免race conditions

    •锁:完成同步的手段(门锁,门后是临界区,只允许一个线程存在) 上锁解锁必须具备原子性

    •原子性(象原子一样不可分割的操作)

    •有序性(禁止指令重排)

    •可见性(一个线程内的修改,另一个线程可见)

    互斥锁 排他锁 共享锁 分段锁

    内核同步常用方法

    1.原子操作 – 内核中类似于AtomicXXX,位于<linux/types.h>

    2.自旋锁 – 内核中通过汇编支持的cas,位于<asm/spinlock.h>

    3.读-写自旋 – 类似于ReadWriteLock,可同时读,只能一个写 读的时候是共享锁,写的时候是排他锁

    4.信号量 – 类似于Semaphore(PV操作 down up操作 占有和释放) 重量级锁,线程会进入wait,适合长时间持有的锁情况

    5.读-写信号量 – downread upread downwrite upwrite (多个写,可以分段写,比较少用)(分段锁)

    6.互斥体(mutex) – 特殊的信号量(二值信号量)

    7.完成变量 – 特殊的信号量(A发出信号给B,B等待在完成变量上) vfork() 在子进程结束时通过完成变量叫醒父进程 类似于(Latch)

    8.BKL:大内核锁(早期,现在已经不用)

    9.顺序锁(2.6): – 线程可以挂起的读写自旋锁 序列计数器(从0开始,写时增加(+1),写完释放(+1),读前发现单数, 说明有写线程,等待,读前读后序列一样,说明没有写线程打断)

    10.禁止抢占 – preempt_disable()

    11.内存屏障 – 见volatile

  • 相关阅读:
    关于springMVC的一些常用注解
    关于springMVC的一些xml配置
    关于easyUI的一些js方法
    关于easyUI一些标签的使用
    关于easyUI分页
    P3376 模板网络流
    P1343 地震逃生
    网络流最大流
    python函数知识三 函数名的使用、格式化、递归
    python函数知识二 动态参数、函数的注释、名称空间、函数的嵌套、global,nonlocal
  • 原文地址:https://www.cnblogs.com/btdxqz/p/13385042.html
Copyright © 2011-2022 走看看