MIPS FPU dynamic activation, part 1, by Herve Poussineau.
[qemu] / target-mips / op_helper.c
1 /*
2  *  MIPS emulation helpers for qemu.
3  * 
4  *  Copyright (c) 2004-2005 Jocelyn Mayer
5  *
6  * This library is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2 of the License, or (at your option) any later version.
10  *
11  * This library is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with this library; if not, write to the Free Software
18  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
19  */
20 #include "exec.h"
21
22 #define MIPS_DEBUG_DISAS
23
24 #define GETPC() (__builtin_return_address(0))
25
26 /*****************************************************************************/
27 /* Exceptions processing helpers */
28 void cpu_loop_exit(void)
29 {
30     longjmp(env->jmp_env, 1);
31 }
32
33 void do_raise_exception_err (uint32_t exception, int error_code)
34 {
35 #if 1
36     if (logfile && exception < 0x100)
37         fprintf(logfile, "%s: %d %d\n", __func__, exception, error_code);
38 #endif
39     env->exception_index = exception;
40     env->error_code = error_code;
41     T0 = 0;
42     cpu_loop_exit();
43 }
44
45 void do_raise_exception (uint32_t exception)
46 {
47     do_raise_exception_err(exception, 0);
48 }
49
50 void do_restore_state (void *pc_ptr)
51 {
52   TranslationBlock *tb;
53   unsigned long pc = (unsigned long) pc_ptr;
54
55   tb = tb_find_pc (pc);
56   cpu_restore_state (tb, env, pc, NULL);
57 }
58
59 void do_raise_exception_direct (uint32_t exception)
60 {
61     do_restore_state (GETPC ());
62     do_raise_exception_err (exception, 0);
63 }
64
65 #define MEMSUFFIX _raw
66 #include "op_helper_mem.c"
67 #undef MEMSUFFIX
68 #if !defined(CONFIG_USER_ONLY)
69 #define MEMSUFFIX _user
70 #include "op_helper_mem.c"
71 #undef MEMSUFFIX
72 #define MEMSUFFIX _kernel
73 #include "op_helper_mem.c"
74 #undef MEMSUFFIX
75 #endif
76
77 #ifdef MIPS_HAS_MIPS64
78 #if TARGET_LONG_BITS > HOST_LONG_BITS
79 /* Those might call libgcc functions.  */
80 void do_dsll (void)
81 {
82     T0 = T0 << T1;
83 }
84
85 void do_dsll32 (void)
86 {
87     T0 = T0 << (T1 + 32);
88 }
89
90 void do_dsra (void)
91 {
92     T0 = (int64_t)T0 >> T1;
93 }
94
95 void do_dsra32 (void)
96 {
97     T0 = (int64_t)T0 >> (T1 + 32);
98 }
99
100 void do_dsrl (void)
101 {
102     T0 = T0 >> T1;
103 }
104
105 void do_dsrl32 (void)
106 {
107     T0 = T0 >> (T1 + 32);
108 }
109
110 void do_drotr (void)
111 {
112     target_ulong tmp;
113
114     if (T1) {
115        tmp = T0 << (0x40 - T1);
116        T0 = (T0 >> T1) | tmp;
117     } else
118        T0 = T1;
119 }
120
121 void do_drotr32 (void)
122 {
123     target_ulong tmp;
124
125     if (T1) {
126        tmp = T0 << (0x40 - (32 + T1));
127        T0 = (T0 >> (32 + T1)) | tmp;
128     } else
129        T0 = T1;
130 }
131
132 void do_dsllv (void)
133 {
134     T0 = T1 << (T0 & 0x3F);
135 }
136
137 void do_dsrav (void)
138 {
139     T0 = (int64_t)T1 >> (T0 & 0x3F);
140 }
141
142 void do_dsrlv (void)
143 {
144     T0 = T1 >> (T0 & 0x3F);
145 }
146
147 void do_drotrv (void)
148 {
149     target_ulong tmp;
150
151     T0 &= 0x3F;
152     if (T0) {
153        tmp = T1 << (0x40 - T0);
154        T0 = (T1 >> T0) | tmp;
155     } else
156        T0 = T1;
157 }
158 #endif /* TARGET_LONG_BITS > HOST_LONG_BITS */
159 #endif /* MIPS_HAS_MIPS64 */
160
161 /* 64 bits arithmetic for 32 bits hosts */
162 #if TARGET_LONG_BITS > HOST_LONG_BITS
163 static inline uint64_t get_HILO (void)
164 {
165     return (env->HI << 32) | (uint32_t)env->LO;
166 }
167
168 static inline void set_HILO (uint64_t HILO)
169 {
170     env->LO = (int32_t)HILO;
171     env->HI = (int32_t)(HILO >> 32);
172 }
173
174 void do_mult (void)
175 {
176     set_HILO((int64_t)(int32_t)T0 * (int64_t)(int32_t)T1);
177 }
178
179 void do_multu (void)
180 {
181     set_HILO((uint64_t)(uint32_t)T0 * (uint64_t)(uint32_t)T1);
182 }
183
184 void do_madd (void)
185 {
186     int64_t tmp;
187
188     tmp = ((int64_t)(int32_t)T0 * (int64_t)(int32_t)T1);
189     set_HILO((int64_t)get_HILO() + tmp);
190 }
191
192 void do_maddu (void)
193 {
194     uint64_t tmp;
195
196     tmp = ((uint64_t)(uint32_t)T0 * (uint64_t)(uint32_t)T1);
197     set_HILO(get_HILO() + tmp);
198 }
199
200 void do_msub (void)
201 {
202     int64_t tmp;
203
204     tmp = ((int64_t)(int32_t)T0 * (int64_t)(int32_t)T1);
205     set_HILO((int64_t)get_HILO() - tmp);
206 }
207
208 void do_msubu (void)
209 {
210     uint64_t tmp;
211
212     tmp = ((uint64_t)(uint32_t)T0 * (uint64_t)(uint32_t)T1);
213     set_HILO(get_HILO() - tmp);
214 }
215 #endif
216
217 #ifdef MIPS_HAS_MIPS64
218 void do_dmult (void)
219 {
220     /* XXX */
221     set_HILO((int64_t)T0 * (int64_t)T1);
222 }
223
224 void do_dmultu (void)
225 {
226     /* XXX */
227     set_HILO((uint64_t)T0 * (uint64_t)T1);
228 }
229
230 void do_ddiv (void)
231 {
232     if (T1 != 0) {
233         env->LO = (int64_t)T0 / (int64_t)T1;
234         env->HI = (int64_t)T0 % (int64_t)T1;
235     }
236 }
237
238 void do_ddivu (void)
239 {
240     if (T1 != 0) {
241         env->LO = T0 / T1;
242         env->HI = T0 % T1;
243     }
244 }
245 #endif
246
247 #if defined(CONFIG_USER_ONLY) 
248 void do_mfc0_random (void)
249 {
250     cpu_abort(env, "mfc0 random\n");
251 }
252
253 void do_mfc0_count (void)
254 {
255     cpu_abort(env, "mfc0 count\n");
256 }
257
258 void cpu_mips_store_count(CPUState *env, uint32_t value)
259 {
260     cpu_abort(env, "mtc0 count\n");
261 }
262
263 void cpu_mips_store_compare(CPUState *env, uint32_t value)
264 {
265     cpu_abort(env, "mtc0 compare\n");
266 }
267
268 void cpu_mips_update_irq(CPUState *env)
269 {
270     cpu_abort(env, "mtc0 status / mtc0 cause\n");
271 }
272
273 void do_mtc0_status_debug(uint32_t old, uint32_t val)
274 {
275     cpu_abort(env, "mtc0 status debug\n");
276 }
277
278 void do_mtc0_status_irqraise_debug (void)
279 {
280     cpu_abort(env, "mtc0 status irqraise debug\n");
281 }
282
283 void do_tlbwi (void)
284 {
285     cpu_abort(env, "tlbwi\n");
286 }
287
288 void do_tlbwr (void)
289 {
290     cpu_abort(env, "tlbwr\n");
291 }
292
293 void do_tlbp (void)
294 {
295     cpu_abort(env, "tlbp\n");
296 }
297
298 void do_tlbr (void)
299 {
300     cpu_abort(env, "tlbr\n");
301 }
302
303 void cpu_mips_tlb_flush (CPUState *env, int flush_global)
304 {
305     cpu_abort(env, "mips_tlb_flush\n");
306 }
307
308 #else
309
310 /* CP0 helpers */
311 void do_mfc0_random (void)
312 {
313     T0 = (int32_t)cpu_mips_get_random(env);
314 }
315
316 void do_mfc0_count (void)
317 {
318     T0 = (int32_t)cpu_mips_get_count(env);
319 }
320
321 void do_mtc0_status_debug(uint32_t old, uint32_t val)
322 {
323     const uint32_t mask = 0x0000FF00;
324     fprintf(logfile, "Status %08x => %08x Cause %08x (%08x %08x %08x)\n",
325             old, val, env->CP0_Cause, old & mask, val & mask,
326             env->CP0_Cause & mask);
327 }
328
329 void do_mtc0_status_irqraise_debug(void)
330 {
331     fprintf(logfile, "Raise pending IRQs\n");
332 }
333
334 #include "softfloat.h"
335
336 void fpu_handle_exception(void)
337 {
338 #ifdef CONFIG_SOFTFLOAT
339     int flags = get_float_exception_flags(&env->fp_status);
340     unsigned int cpuflags = 0, enable, cause = 0;
341
342     enable = GET_FP_ENABLE(env->fcr31);
343
344     /* determine current flags */   
345     if (flags & float_flag_invalid) {
346         cpuflags |= FP_INVALID;
347         cause |= FP_INVALID & enable;
348     }
349     if (flags & float_flag_divbyzero) {
350         cpuflags |= FP_DIV0;    
351         cause |= FP_DIV0 & enable;
352     }
353     if (flags & float_flag_overflow) {
354         cpuflags |= FP_OVERFLOW;    
355         cause |= FP_OVERFLOW & enable;
356     }
357     if (flags & float_flag_underflow) {
358         cpuflags |= FP_UNDERFLOW;   
359         cause |= FP_UNDERFLOW & enable;
360     }
361     if (flags & float_flag_inexact) {
362         cpuflags |= FP_INEXACT; 
363         cause |= FP_INEXACT & enable;
364     }
365     SET_FP_FLAGS(env->fcr31, cpuflags);
366     SET_FP_CAUSE(env->fcr31, cause);
367 #else
368     SET_FP_FLAGS(env->fcr31, 0);
369     SET_FP_CAUSE(env->fcr31, 0);
370 #endif
371 }
372
373 /* TLB management */
374 #if defined(MIPS_USES_R4K_TLB)
375 void cpu_mips_tlb_flush (CPUState *env, int flush_global)
376 {
377     /* Flush qemu's TLB and discard all shadowed entries.  */
378     tlb_flush (env, flush_global);
379     env->tlb_in_use = MIPS_TLB_NB;
380 }
381
382 static void mips_tlb_flush_extra (CPUState *env, int first)
383 {
384     /* Discard entries from env->tlb[first] onwards.  */
385     while (env->tlb_in_use > first) {
386         invalidate_tlb(env, --env->tlb_in_use, 0);
387     }
388 }
389
390 static void fill_tlb (int idx)
391 {
392     tlb_t *tlb;
393
394     /* XXX: detect conflicting TLBs and raise a MCHECK exception when needed */
395     tlb = &env->tlb[idx];
396     tlb->VPN = env->CP0_EntryHi & ~(target_ulong)0x1FFF;
397     tlb->ASID = env->CP0_EntryHi & 0xFF;
398     tlb->PageMask = env->CP0_PageMask;
399     tlb->G = env->CP0_EntryLo0 & env->CP0_EntryLo1 & 1;
400     tlb->V0 = (env->CP0_EntryLo0 & 2) != 0;
401     tlb->D0 = (env->CP0_EntryLo0 & 4) != 0;
402     tlb->C0 = (env->CP0_EntryLo0 >> 3) & 0x7;
403     tlb->PFN[0] = (env->CP0_EntryLo0 >> 6) << 12;
404     tlb->V1 = (env->CP0_EntryLo1 & 2) != 0;
405     tlb->D1 = (env->CP0_EntryLo1 & 4) != 0;
406     tlb->C1 = (env->CP0_EntryLo1 >> 3) & 0x7;
407     tlb->PFN[1] = (env->CP0_EntryLo1 >> 6) << 12;
408 }
409
410 void do_tlbwi (void)
411 {
412     /* Discard cached TLB entries.  We could avoid doing this if the
413        tlbwi is just upgrading access permissions on the current entry;
414        that might be a further win.  */
415     mips_tlb_flush_extra (env, MIPS_TLB_NB);
416
417     /* Wildly undefined effects for CP0_Index containing a too high value and
418        MIPS_TLB_NB not being a power of two.  But so does real silicon.  */
419     invalidate_tlb(env, env->CP0_Index & (MIPS_TLB_NB - 1), 0);
420     fill_tlb(env->CP0_Index & (MIPS_TLB_NB - 1));
421 }
422
423 void do_tlbwr (void)
424 {
425     int r = cpu_mips_get_random(env);
426
427     invalidate_tlb(env, r, 1);
428     fill_tlb(r);
429 }
430
431 void do_tlbp (void)
432 {
433     tlb_t *tlb;
434     target_ulong tag;
435     uint8_t ASID;
436     int i;
437
438     tag = env->CP0_EntryHi & (int32_t)0xFFFFE000;
439     ASID = env->CP0_EntryHi & 0xFF;
440     for (i = 0; i < MIPS_TLB_NB; i++) {
441         tlb = &env->tlb[i];
442         /* Check ASID, virtual page number & size */
443         if ((tlb->G == 1 || tlb->ASID == ASID) && tlb->VPN == tag) {
444             /* TLB match */
445             env->CP0_Index = i;
446             break;
447         }
448     }
449     if (i == MIPS_TLB_NB) {
450         /* No match.  Discard any shadow entries, if any of them match.  */
451         for (i = MIPS_TLB_NB; i < env->tlb_in_use; i++) {
452             tlb = &env->tlb[i];
453
454             /* Check ASID, virtual page number & size */
455             if ((tlb->G == 1 || tlb->ASID == ASID) && tlb->VPN == tag) {
456                 mips_tlb_flush_extra (env, i);
457                 break;
458             }
459         }
460
461         env->CP0_Index |= 0x80000000;
462     }
463 }
464
465 void do_tlbr (void)
466 {
467     tlb_t *tlb;
468     uint8_t ASID;
469
470     ASID = env->CP0_EntryHi & 0xFF;
471     tlb = &env->tlb[env->CP0_Index & (MIPS_TLB_NB - 1)];
472
473     /* If this will change the current ASID, flush qemu's TLB.  */
474     if (ASID != tlb->ASID)
475         cpu_mips_tlb_flush (env, 1);
476
477     mips_tlb_flush_extra(env, MIPS_TLB_NB);
478
479     env->CP0_EntryHi = tlb->VPN | tlb->ASID;
480     env->CP0_PageMask = tlb->PageMask;
481     env->CP0_EntryLo0 = tlb->G | (tlb->V0 << 1) | (tlb->D0 << 2) |
482                         (tlb->C0 << 3) | (tlb->PFN[0] >> 6);
483     env->CP0_EntryLo1 = tlb->G | (tlb->V1 << 1) | (tlb->D1 << 2) |
484                         (tlb->C1 << 3) | (tlb->PFN[1] >> 6);
485 }
486 #endif
487
488 #endif /* !CONFIG_USER_ONLY */
489
490 void dump_ldst (const unsigned char *func)
491 {
492     if (loglevel)
493         fprintf(logfile, "%s => " TARGET_FMT_lx " " TARGET_FMT_lx "\n", __func__, T0, T1);
494 }
495
496 void dump_sc (void)
497 {
498     if (loglevel) {
499         fprintf(logfile, "%s " TARGET_FMT_lx " at " TARGET_FMT_lx " (" TARGET_FMT_lx ")\n", __func__,
500                 T1, T0, env->CP0_LLAddr);
501     }
502 }
503
504 void debug_eret (void)
505 {
506     if (loglevel) {
507         fprintf(logfile, "ERET: pc " TARGET_FMT_lx " EPC " TARGET_FMT_lx " ErrorEPC " TARGET_FMT_lx " (%d)\n",
508                 env->PC, env->CP0_EPC, env->CP0_ErrorEPC,
509                 env->hflags & MIPS_HFLAG_ERL ? 1 : 0);
510     }
511 }
512
513 void do_pmon (int function)
514 {
515     function /= 2;
516     switch (function) {
517     case 2: /* TODO: char inbyte(int waitflag); */
518         if (env->gpr[4] == 0)
519             env->gpr[2] = -1;
520         /* Fall through */
521     case 11: /* TODO: char inbyte (void); */
522         env->gpr[2] = -1;
523         break;
524     case 3:
525     case 12:
526         printf("%c", (char)(env->gpr[4] & 0xFF));
527         break;
528     case 17:
529         break;
530     case 158:
531         {
532             unsigned char *fmt = (void *)(unsigned long)env->gpr[4];
533             printf("%s", fmt);
534         }
535         break;
536     }
537 }
538
539 #if !defined(CONFIG_USER_ONLY) 
540
541 static void do_unaligned_access (target_ulong addr, int is_write, int is_user, void *retaddr);
542
543 #define MMUSUFFIX _mmu
544 #define ALIGNED_ONLY
545
546 #define SHIFT 0
547 #include "softmmu_template.h"
548
549 #define SHIFT 1
550 #include "softmmu_template.h"
551
552 #define SHIFT 2
553 #include "softmmu_template.h"
554
555 #define SHIFT 3
556 #include "softmmu_template.h"
557
558 static void do_unaligned_access (target_ulong addr, int is_write, int is_user, void *retaddr)
559 {
560     env->CP0_BadVAddr = addr;
561     do_restore_state (retaddr);
562     do_raise_exception ((is_write == 1) ? EXCP_AdES : EXCP_AdEL);
563 }
564
565 void tlb_fill (target_ulong addr, int is_write, int is_user, void *retaddr)
566 {
567     TranslationBlock *tb;
568     CPUState *saved_env;
569     unsigned long pc;
570     int ret;
571
572     /* XXX: hack to restore env in all cases, even if not called from
573        generated code */
574     saved_env = env;
575     env = cpu_single_env;
576     ret = cpu_mips_handle_mmu_fault(env, addr, is_write, is_user, 1);
577     if (ret) {
578         if (retaddr) {
579             /* now we have a real cpu fault */
580             pc = (unsigned long)retaddr;
581             tb = tb_find_pc(pc);
582             if (tb) {
583                 /* the PC is inside the translated code. It means that we have
584                    a virtual CPU fault */
585                 cpu_restore_state(tb, env, pc, NULL);
586             }
587         }
588         do_raise_exception_err(env->exception_index, env->error_code);
589     }
590     env = saved_env;
591 }
592
593 #endif