Clang Project

clang_source_code/test/OpenMP/teams_distribute_parallel_for_reduction_codegen.cpp
1// RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
2// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
3// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
4// RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
5// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
6// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
7
8// RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
9// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
10// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
11// RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
12// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
13// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
14// SIMD-ONLY0-NOT: {{__kmpc|__tgt}}
15
16// RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
17// RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
18// RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
19
20// RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY1 %s
21// RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
22// RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY1 %s
23// SIMD-ONLY1-NOT: {{__kmpc|__tgt}}
24
25// expected-no-diagnostics
26#ifndef HEADER
27#define HEADER
28
29template <typename T>
30T tmain() {
31  T t_var = T();
32  T vec[] = {1, 2};
33#pragma omp target
34#pragma omp teams distribute parallel for reduction(+: t_var)
35  for (int i = 0; i < 2; ++i) {
36    t_var += (T) i;
37  }
38  return T();
39}
40
41int main() {
42  static int sivar;
43#ifdef LAMBDA
44  // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
45
46  // LAMBDA-LABEL: @main
47  // LAMBDA: call void [[OUTER_LAMBDA:@.+]](
48  [&]() {
49    // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]](
50    // LAMBDA: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i32 0, i32 0)
51    // LAMBDA: call void @[[LOFFL1:.+]](
52    // LAMBDA:  ret
53#pragma omp target
54#pragma omp teams distribute parallel for reduction(+: sivar)
55  for (int i = 0; i < 2; ++i) {
56    // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
57    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
58    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
59    // LAMBDA: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
60    // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
61    // LAMBDA: ret void
62
63    // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
64    // Skip global and bound tid vars
65    // LAMBDA: {{.+}} = alloca i32*,
66    // LAMBDA: {{.+}} = alloca i32*,
67    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
68    // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
69    // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
70    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
71    // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
72    // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
73
74    // LAMBDA: call void @__kmpc_for_static_init_4(
75    // LAMBDA: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[LPAR_OUTL:.+]] to
76    // LAMBDA: call void @__kmpc_for_static_fini(
77    // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
78    // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
79    // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
80    // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
81    // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
82    // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
83    // LAMBDA: {{.+}}, label %[[CASE1:.+]]
84    // LAMBDA: {{.+}}, label %[[CASE2:.+]]
85    // LAMBDA: ]
86    // LAMBDA: [[CASE1]]:
87    // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
88    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
89    // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
90    // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
91    // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
92    // LAMBDA: br
93    // LAMBDA: [[CASE2]]:
94    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
95    // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
96    // LAMBDA: br
97
98    // LAMBDA: define internal void @[[LPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
99
100    // Skip global and bound tid vars, and prev lb and ub vars
101    // LAMBDA: {{.+}} = alloca i32*,
102    // LAMBDA: {{.+}} = alloca i32*,
103    // LAMBDA: alloca i{{[0-9]+}},
104    // LAMBDA: alloca i{{[0-9]+}},
105    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
106    // skip loop vars
107    // LAMBDA: alloca i32,
108    // LAMBDA: alloca i32,
109    // LAMBDA: alloca i32,
110    // LAMBDA: alloca i32,
111    // LAMBDA: alloca i32,
112    // LAMBDA: alloca i32,
113    // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
114    // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
115    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
116    // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
117    // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
118
119    // LAMBDA: call void @__kmpc_for_static_init_4(
120     // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
121    // LAMBDA: call void [[INNER_LAMBDA:@.+]](
122    // LAMBDA: call void @__kmpc_for_static_fini(
123    // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
124    // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
125    // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
126    // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
127    // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
128    // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
129    // LAMBDA: {{.+}}, label %[[CASE1:.+]]
130    // LAMBDA: {{.+}}, label %[[CASE2:.+]]
131    // LAMBDA: ]
132    // LAMBDA: [[CASE1]]:
133    // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
134    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
135    // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
136    // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
137    // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
138    // LAMBDA: br
139    // LAMBDA: [[CASE2]]:
140    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
141    // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
142    // LAMBDA: br
143
144    sivar += i;
145
146    [&]() {
147      // LAMBDA: define {{.+}} void [[INNER_LAMBDA]](%{{.+}}* [[ARG_PTR:%.+]])
148      // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]],
149
150      sivar += 4;
151      // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]]
152
153      // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0
154      // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]]
155      // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]]
156      // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4
157      // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]]
158    }();
159  }
160  }();
161  return 0;
162#else
163#pragma omp target
164#pragma omp teams distribute parallel for reduction(+: sivar)
165  for (int i = 0; i < 2; ++i) {
166    sivar += i;
167  }
168  return tmain<int>();
169#endif
170}
171
172// CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
173
174// CHECK: define {{.*}}i{{[0-9]+}} @main()
175// CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i32 0, i32 0)
176// CHECK: call void @[[OFFL1:.+]](i{{64|32}} %{{.+}})
177// CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]()
178// CHECK:  ret
179
180// CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
181// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
182// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
183// CHECK-64: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
184// CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
185// CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_ADDR]])
186// CHECK: ret void
187
188// CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
189// Skip global and bound tid vars
190// CHECK: {{.+}} = alloca i32*,
191// CHECK: {{.+}} = alloca i32*,
192// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
193// CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
194// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
195// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
196// CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
197// CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
198
199// CHECK: call void @__kmpc_for_static_init_4(
200// CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[PAR_OUTL:.+]] to
201// CHECK: call void @__kmpc_for_static_fini(
202// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
203// CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
204// CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
205// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
206// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
207// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
208// CHECK: {{.+}}, label %[[CASE1:.+]]
209// CHECK: {{.+}}, label %[[CASE2:.+]]
210// CHECK: ]
211// CHECK: [[CASE1]]:
212// CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
213// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
214// CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
215// CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
216// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
217// CHECK: br
218// CHECK: [[CASE2]]:
219// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
220// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
221// CHECK: br
222
223// CHECK: define internal void @[[PAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
224// Skip global and bound tid vars, and prev lb and ub
225// CHECK: {{.+}} = alloca i32*,
226// CHECK: {{.+}} = alloca i32*,
227// CHECK: alloca i{{[0-9]+}},
228// CHECK: alloca i{{[0-9]+}},
229// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
230// skip loop vars
231// CHECK: alloca i32,
232// CHECK: alloca i32,
233// CHECK: alloca i32,
234// CHECK: alloca i32,
235// CHECK: alloca i32,
236// CHECK: alloca i32,
237// CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
238// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
239// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
240// CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
241// CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
242
243// CHECK: call void @__kmpc_for_static_init_4(
244// CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
245// CHECK: call void @__kmpc_for_static_fini(
246// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
247// CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
248// CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
249// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
250// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
251// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
252// CHECK: {{.+}}, label %[[CASE1:.+]]
253// CHECK: {{.+}}, label %[[CASE2:.+]]
254// CHECK: ]
255// CHECK: [[CASE1]]:
256// CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
257// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
258// CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
259// CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
260// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
261// CHECK: br
262// CHECK: [[CASE2]]:
263// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
264// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
265// CHECK: br
266
267// CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]()
268// CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1,
269// CHECK: call void @[[TOFFL1:.+]]({{.+}})
270// CHECK:  ret
271
272// CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}} [[TVAR_ARG:%.+]])
273// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
274// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
275// CHECK-64: [[TVAR_CONV:%.+]] = bitcast{{.+}} [[TVAR_ADDR]] to
276// CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_CONV]])
277// CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_ADDR]])
278// CHECK: ret void
279
280// CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
281// Skip global and bound tid vars
282// CHECK: {{.+}} = alloca i32*,
283// CHECK: {{.+}} = alloca i32*,
284// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
285// CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
286// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
287// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
288// CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
289// CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
290
291// CHECK: call void @__kmpc_for_static_init_4(
292// CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[TPAR_OUTL:.+]] to
293// CHECK: call void @__kmpc_for_static_fini(
294// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
295// CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
296// CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
297// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
298// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
299// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
300// CHECK: {{.+}}, label %[[CASE1:.+]]
301// CHECK: {{.+}}, label %[[CASE2:.+]]
302// CHECK: ]
303// CHECK: [[CASE1]]:
304// CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
305// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
306// CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
307// CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
308// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
309// CHECK: br
310// CHECK: [[CASE2]]:
311// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
312// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]
313// CHECK: br
314
315// CHECK: define internal void @[[TPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
316// Skip global and bound tid vars, and prev lb and ub vars
317// CHECK: {{.+}} = alloca i32*,
318// CHECK: {{.+}} = alloca i32*,
319// CHECK: alloca i{{[0-9]+}},
320// CHECK: alloca i{{[0-9]+}},
321// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
322// skip loop vars
323// CHECK: alloca i32,
324// CHECK: alloca i32,
325// CHECK: alloca i32,
326// CHECK: alloca i32,
327// CHECK: alloca i32,
328// CHECK: alloca i32,
329// CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
330// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
331// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
332// CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
333// CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
334
335// CHECK: call void @__kmpc_for_static_init_4(
336// CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]],
337// CHECK: call void @__kmpc_for_static_fini(
338// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
339// CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
340// CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
341// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
342// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
343// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
344// CHECK: {{.+}}, label %[[CASE1:.+]]
345// CHECK: {{.+}}, label %[[CASE2:.+]]
346// CHECK: ]
347// CHECK: [[CASE1]]:
348// CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
349// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
350// CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
351// CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
352// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
353// CHECK: br
354// CHECK: [[CASE2]]:
355// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
356// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]
357// CHECK: br
358#endif
359