【MIT 6.S081】Lab7: Multithreading

thread

  • Uthread: switching between threads
  • Using threads
  • Barrier

本Lab比较简单,就是为xv6添加一个用户级的多线程功能,然后熟悉一下Linux下多线程编程。
笔者用时约2h

Uthread: switching between threads

这一部分的代码不涉及内核代码,所以也比较简单,根据提示修改user/uthread.c中的代码即可。仿照内核中进程转换函数swtch的实现即可。首先,添加一个context上下文结构体用于保存被调用者保存寄存器(从kernel/proc.h中复制过来就行啦)。

struct context {
  uint64 ra;
  uint64 sp;

  // callee-saved
  uint64 s0;
  uint64 s1;
  uint64 s2;
  uint64 s3;
  uint64 s4;
  uint64 s5;
  uint64 s6;
  uint64 s7;
  uint64 s8;
  uint64 s9;
  uint64 s10;
  uint64 s11;
};

并且为thread添加一个context字段

struct thread {
  char       stack[STACK_SIZE]; /* the thread's stack */
  int        state;             /* FREE, RUNNING, RUNNABLE */
  struct context context;
};

然后需要仿照swtch函数(定义在kernel/swtch.S中)实现一个thread_switch函数(定义在user/uthread_switch.S中),其实也就是复制过来就好啦

thread_switch:
	/* YOUR CODE HERE */
	
	sd ra, 0(a0)
	sd sp, 8(a0)
	sd s0, 16(a0)
	sd s1, 24(a0)
	sd s2, 32(a0)
	sd s3, 40(a0)
	sd s4, 48(a0)
	sd s5, 56(a0)
	sd s6, 64(a0)
	sd s7, 72(a0)
	sd s8, 80(a0)
	sd s9, 88(a0)
	sd s10, 96(a0)
	sd s11, 104(a0)

	ld ra, 0(a1)
	ld sp, 8(a1)
	ld s0, 16(a1)
	ld s1, 24(a1)
	ld s2, 32(a1)
	ld s3, 40(a1)
	ld s4, 48(a1)
	ld s5, 56(a1)
	ld s6, 64(a1)
	ld s7, 72(a1)
	ld s8, 80(a1)
	ld s9, 88(a1)
	ld s10, 96(a1)
	ld s11, 104(a1)
	
	ret    /* return to ra */

然后为thread_create函数添加代码,为线程初始化上下文字段,最重要的两个寄存器是rasp,其中ra寄存器需要指向传进来的线程函数,在thread_switch函数中将被替换到CPU的ra,作为返回地址,即起到了一个跳板的作用,跳到了线程函数中;sp寄存器则需要指向线程的栈

void 
thread_create(void (*func)())
{
  struct thread *t;

  for (t = all_thread; t < all_thread + MAX_THREAD; t++) {
    if (t->state == FREE) break;
  }
  t->state = RUNNABLE;
  // YOUR CODE HERE
  t->context.ra = (uint64) func;
  t->context.sp = (uint64) (t->stack + STACK_SIZE);
}

thread_schedule函数中,增加一句代码调用thread_switch函数进行线程转换即可。

if (current_thread != next_thread) {         /* switch threads?  */
    next_thread->state = RUNNING;
    t = current_thread;
    current_thread = next_thread;
    /* YOUR CODE HERE
     * Invoke thread_switch to switch from t to next_thread:
     * thread_switch(??, ??);
     */
    thread_switch((uint64)&t->context, (uint64)&current_thread->context);
  }

Using threads

首先回答一个问题:
Q: 为什么两个线程都丢失了键,而不是一个线程?确定可能导致键丢失的具有2个线程的事件序列。
A: 当两个线程同时调用put且插入的哈希bucket是同一个时,涉及到链表插入的并发性问题,
其实在xv6-book中第六章有讲到过。由于这里是头插法,修改头指针指向当前新插入的节点时,
如果两个线程的操作交叉运行,则后运行的一个会被前运行的一个覆盖,使得插入的节点少了一个,
这种行为是不可预测的,所以两个线程都有可能丢失。

然后需要为代码加锁以修复并发put的问题,考虑如果两个线程并发put到两个不同的bucket中,不会引发问题,于是为每一个bucket设置一个锁即可。

pthread_mutex_t lock[NBUCKET];

然后在put函数中加上锁即可。

if(e){
    pthread_mutex_lock(&lock[i]);
    // update the existing key.
    e->value = value;
    pthread_mutex_unlock(&lock[i]);
} else {
    // the new is new.
    pthread_mutex_lock(&lock[i]);
    insert(key, value, &table[i], table[i]);
    pthread_mutex_unlock(&lock[i]);
}

Barrier

这一部分据文档描述就是加上一层屏障,进行线程同步,需要使用条件变量的知识,这里就不细说了,简单来说就是,让一些快的线程等一会,让最后一个到达的线程通知大家说可以继续走了,实现起来也很简单。

static void 
barrier()
{
  // YOUR CODE HERE
  //
  // Block until all threads have called barrier() and
  // then increment bstate.round.
  //
  pthread_mutex_lock(&bstate.barrier_mutex);
  bstate.nthread ++;
  if (bstate.nthread < nthread) {
    pthread_cond_wait(&bstate.barrier_cond, &bstate.barrier_mutex);
    pthread_mutex_unlock(&bstate.barrier_mutex);
    return;
  }
  bstate.nthread = 0;
  bstate.round ++;
  pthread_mutex_unlock(&bstate.barrier_mutex);
  pthread_cond_broadcast(&bstate.barrier_cond);
}

你可能感兴趣的:(MIT,6.S081,操作系统,os)