Clang Project

clang_source_code/test/OpenMP/teams_distribute_parallel_for_simd_reduction_codegen.cpp
1// RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
2// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
3// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
4// RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
5// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
6// RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
7
8// RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
9// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
10// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
11// RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
12// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
13// RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
14// SIMD-ONLY0-NOT: {{__kmpc|__tgt}}
15
16// RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
17// RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
18// RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
19
20// RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY1 %s
21// RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
22// RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY1 %s
23// SIMD-ONLY1-NOT: {{__kmpc|__tgt}}
24
25// expected-no-diagnostics
26#ifndef HEADER
27#define HEADER
28
29template <typename T>
30T tmain() {
31  T t_var = T();
32  T vec[] = {1, 2};
33#pragma omp target
34#pragma omp teams distribute parallel for simd reduction(+: t_var)
35  for (int i = 0; i < 2; ++i) {
36    t_var += (T) i;
37  }
38  return T();
39}
40
41int main() {
42  static int sivar;
43#ifdef LAMBDA
44  // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
45
46  // LAMBDA-LABEL: @main
47  // LAMBDA: call void [[OUTER_LAMBDA:@.+]](
48  [&]() {
49    // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]](
50    // LAMBDA: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0)
51    // LAMBDA: call void @[[LOFFL1:.+]](
52    // LAMBDA:  ret
53#pragma omp target
54#pragma omp teams distribute parallel for simd reduction(+: sivar)
55  for (int i = 0; i < 2; ++i) {
56    // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
57    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
58    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
59    // LAMBDA: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
60    // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
61    // LAMBDA: ret void
62
63    // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
64    // Skip global and bound tid vars
65    // LAMBDA: {{.+}} = alloca i32*,
66    // LAMBDA: {{.+}} = alloca i32*,
67    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
68    // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
69    // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
70    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
71    // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
72    // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
73
74    // LAMBDA: call void @__kmpc_for_static_init_4(
75    // LAMBDA: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[LPAR_OUTL:.+]] to
76    // LAMBDA: call void @__kmpc_for_static_fini(
77    // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
78    // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
79    // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
80    // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
81    // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
82    // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
83    // LAMBDA: {{.+}}, label %[[CASE1:.+]]
84    // LAMBDA: {{.+}}, label %[[CASE2:.+]]
85    // LAMBDA: ]
86    // LAMBDA: [[CASE1]]:
87    // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
88    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
89    // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
90    // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
91    // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
92    // LAMBDA: br
93    // LAMBDA: [[CASE2]]:
94    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
95    // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
96    // LAMBDA: br
97
98    // LAMBDA: define internal void @[[LPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
99
100    // Skip global and bound tid vars, and prev lb and ub vars
101    // LAMBDA: {{.+}} = alloca i32*,
102    // LAMBDA: {{.+}} = alloca i32*,
103    // LAMBDA: alloca i{{[0-9]+}},
104    // LAMBDA: alloca i{{[0-9]+}},
105    // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
106    // skip loop vars
107    // LAMBDA: alloca i32,
108    // LAMBDA: alloca i32,
109    // LAMBDA: alloca i32,
110    // LAMBDA: alloca i32,
111    // LAMBDA: alloca i32,
112    // LAMBDA: alloca i32,
113    // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
114    // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
115    // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
116    // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
117    // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
118
119    // LAMBDA: call void @__kmpc_for_static_init_4(
120    // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
121    // LAMBDA: call void [[INNER_LAMBDA:@.+]](
122    // LAMBDA: call void @__kmpc_for_static_fini(
123    // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
124    // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
125    // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
126    // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
127    // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
128    // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
129    // LAMBDA: {{.+}}, label %[[CASE1:.+]]
130    // LAMBDA: {{.+}}, label %[[CASE2:.+]]
131    // LAMBDA: ]
132    // LAMBDA: [[CASE1]]:
133    // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
134    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
135    // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
136    // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
137    // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
138    // LAMBDA: br
139    // LAMBDA: [[CASE2]]:
140    // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
141    // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
142    // LAMBDA: br
143
144    sivar += i;
145
146    [&]() {
147      // LAMBDA: define {{.+}} void [[INNER_LAMBDA]](%{{.+}}* [[ARG_PTR:%.+]])
148      // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]],
149
150      sivar += 4;
151      // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]]
152
153      // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0
154      // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]]
155      // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]]
156      // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4
157      // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]]
158    }();
159  }
160  }();
161  return 0;
162
163// LAMBDA: !{!"llvm.loop.vectorize.enable", i1 true}
164
165#else
166#pragma omp target
167#pragma omp teams distribute parallel for simd reduction(+: sivar)
168  for (int i = 0; i < 2; ++i) {
169    sivar += i;
170  }
171  return tmain<int>();
172#endif
173}
174
175// CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
176
177// CHECK: define {{.*}}i{{[0-9]+}} @main()
178// CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0)
179// CHECK: call void @[[OFFL1:.+]](i{{64|32}} %{{.+}})
180// CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]()
181// CHECK:  ret
182
183// CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
184// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
185// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
186// CHECK-64: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
187// CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
188// CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_ADDR]])
189// CHECK: ret void
190
191// CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
192// Skip global and bound tid vars
193// CHECK: {{.+}} = alloca i32*,
194// CHECK: {{.+}} = alloca i32*,
195// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
196// CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
197// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
198// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
199// CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
200// CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
201
202// CHECK: call void @__kmpc_for_static_init_4(
203// CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[PAR_OUTL:.+]] to
204// CHECK: call void @__kmpc_for_static_fini(
205// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
206// CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
207// CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
208// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
209// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
210// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
211// CHECK: {{.+}}, label %[[CASE1:.+]]
212// CHECK: {{.+}}, label %[[CASE2:.+]]
213// CHECK: ]
214// CHECK: [[CASE1]]:
215// CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
216// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
217// CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
218// CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
219// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
220// CHECK: br
221// CHECK: [[CASE2]]:
222// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
223// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
224// CHECK: br
225
226// CHECK: define internal void @[[PAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
227// Skip global and bound tid vars, and prev lb and ub
228// CHECK: {{.+}} = alloca i32*,
229// CHECK: {{.+}} = alloca i32*,
230// CHECK: alloca i{{[0-9]+}},
231// CHECK: alloca i{{[0-9]+}},
232// CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
233// skip loop vars
234// CHECK: alloca i32,
235// CHECK: alloca i32,
236// CHECK: alloca i32,
237// CHECK: alloca i32,
238// CHECK: alloca i32,
239// CHECK: alloca i32,
240// CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
241// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
242// CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
243// CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
244// CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
245
246// CHECK: call void @__kmpc_for_static_init_4(
247// CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
248// CHECK: call void @__kmpc_for_static_fini(
249// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
250// CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
251// CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
252// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
253// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
254// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
255// CHECK: {{.+}}, label %[[CASE1:.+]]
256// CHECK: {{.+}}, label %[[CASE2:.+]]
257// CHECK: ]
258// CHECK: [[CASE1]]:
259// CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
260// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
261// CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
262// CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
263// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
264// CHECK: br
265// CHECK: [[CASE2]]:
266// CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
267// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
268// CHECK: br
269
270// CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]()
271// CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1,
272// CHECK: call void @[[TOFFL1:.+]]({{.+}})
273// CHECK:  ret
274
275// CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}} [[TVAR_ARG:%.+]])
276// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
277// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
278// CHECK-64: [[TVAR_CONV:%.+]] = bitcast{{.+}} [[TVAR_ADDR]] to
279// CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_CONV]])
280// CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_ADDR]])
281// CHECK: ret void
282
283// CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
284// Skip global and bound tid vars
285// CHECK: {{.+}} = alloca i32*,
286// CHECK: {{.+}} = alloca i32*,
287// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
288// CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
289// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
290// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
291// CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
292// CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
293
294// CHECK: call void @__kmpc_for_static_init_4(
295// CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[TPAR_OUTL:.+]] to
296// CHECK: call void @__kmpc_for_static_fini(
297// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
298// CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
299// CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
300// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
301// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
302// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
303// CHECK: {{.+}}, label %[[CASE1:.+]]
304// CHECK: {{.+}}, label %[[CASE2:.+]]
305// CHECK: ]
306// CHECK: [[CASE1]]:
307// CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
308// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
309// CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
310// CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
311// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
312// CHECK: br
313// CHECK: [[CASE2]]:
314// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
315// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]
316// CHECK: br
317
318// CHECK: define internal void @[[TPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
319// Skip global and bound tid vars, and prev lb and ub vars
320// CHECK: {{.+}} = alloca i32*,
321// CHECK: {{.+}} = alloca i32*,
322// CHECK: alloca i{{[0-9]+}},
323// CHECK: alloca i{{[0-9]+}},
324// CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
325// skip loop vars
326// CHECK: alloca i32,
327// CHECK: alloca i32,
328// CHECK: alloca i32,
329// CHECK: alloca i32,
330// CHECK: alloca i32,
331// CHECK: alloca i32,
332// CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
333// CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
334// CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
335// CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
336// CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
337
338// CHECK: call void @__kmpc_for_static_init_4(
339// CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]],
340// CHECK: call void @__kmpc_for_static_fini(
341// CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
342// CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
343// CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
344// CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
345// CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
346// CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
347// CHECK: {{.+}}, label %[[CASE1:.+]]
348// CHECK: {{.+}}, label %[[CASE2:.+]]
349// CHECK: ]
350// CHECK: [[CASE1]]:
351// CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
352// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
353// CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
354// CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
355// CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
356// CHECK: br
357// CHECK: [[CASE2]]:
358// CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
359// CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]
360// CHECK: br
361
362// CHECK: !{!"llvm.loop.vectorize.enable", i1 true}
363
364#endif
365