summaryrefslogtreecommitdiff
path: root/test/CodeGen/AArch64/arm64-zeroreg.ll
blob: f6e1bc3eaf443f86edbd4414813a58420c5a8f11 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
; RUN: llc -o - %s | FileCheck %s
target triple = "aarch64--"

declare void @begin()
declare void @end()

; Test that we use the zero register before regalloc and do not unnecessarily
; clobber a register with the SUBS (cmp) instruction.
; CHECK-LABEL: func:
define void @func(i64* %addr) {
  ; We should not see any spills or reloads between begin and end
  ; CHECK: bl begin
  ; CHECK-NOT: str{{.*}}sp
  ; CHECK-NOT: Folded Spill
  ; CHECK-NOT: ldr{{.*}}sp
  ; CHECK-NOT: Folded Reload
  call void @begin()
  %v0 = load volatile i64, i64* %addr  
  %v1 = load volatile i64, i64* %addr  
  %v2 = load volatile i64, i64* %addr  
  %v3 = load volatile i64, i64* %addr  
  %v4 = load volatile i64, i64* %addr  
  %v5 = load volatile i64, i64* %addr  
  %v6 = load volatile i64, i64* %addr  
  %v7 = load volatile i64, i64* %addr  
  %v8 = load volatile i64, i64* %addr  
  %v9 = load volatile i64, i64* %addr  
  %v10 = load volatile i64, i64* %addr  
  %v11 = load volatile i64, i64* %addr  
  %v12 = load volatile i64, i64* %addr  
  %v13 = load volatile i64, i64* %addr  
  %v14 = load volatile i64, i64* %addr  
  %v15 = load volatile i64, i64* %addr  
  %v16 = load volatile i64, i64* %addr  
  %v17 = load volatile i64, i64* %addr  
  %v18 = load volatile i64, i64* %addr  
  %v19 = load volatile i64, i64* %addr  
  %v20 = load volatile i64, i64* %addr
  %v21 = load volatile i64, i64* %addr
  %v22 = load volatile i64, i64* %addr
  %v23 = load volatile i64, i64* %addr
  %v24 = load volatile i64, i64* %addr
  %v25 = load volatile i64, i64* %addr
  %v26 = load volatile i64, i64* %addr
  %v27 = load volatile i64, i64* %addr
  %v28 = load volatile i64, i64* %addr
  %v29 = load volatile i64, i64* %addr

  %c = icmp eq i64 %v0, %v1
  br i1 %c, label %if.then, label %if.end

if.then:
  store volatile i64 %v2, i64* %addr
  br label %if.end

if.end:
  store volatile i64 %v0, i64* %addr
  store volatile i64 %v1, i64* %addr
  store volatile i64 %v2, i64* %addr
  store volatile i64 %v3, i64* %addr
  store volatile i64 %v4, i64* %addr
  store volatile i64 %v5, i64* %addr
  store volatile i64 %v6, i64* %addr
  store volatile i64 %v7, i64* %addr
  store volatile i64 %v8, i64* %addr
  store volatile i64 %v9, i64* %addr
  store volatile i64 %v10, i64* %addr
  store volatile i64 %v11, i64* %addr
  store volatile i64 %v12, i64* %addr
  store volatile i64 %v13, i64* %addr
  store volatile i64 %v14, i64* %addr
  store volatile i64 %v15, i64* %addr
  store volatile i64 %v16, i64* %addr
  store volatile i64 %v17, i64* %addr
  store volatile i64 %v18, i64* %addr
  store volatile i64 %v19, i64* %addr
  store volatile i64 %v20, i64* %addr
  store volatile i64 %v21, i64* %addr
  store volatile i64 %v22, i64* %addr
  store volatile i64 %v23, i64* %addr
  store volatile i64 %v24, i64* %addr
  store volatile i64 %v25, i64* %addr
  store volatile i64 %v26, i64* %addr
  store volatile i64 %v27, i64* %addr
  store volatile i64 %v28, i64* %addr
  store volatile i64 %v29, i64* %addr
  ; CHECK: bl end
  call void @end()

  ret void
}