@@ -10,8 +10,8 @@ define i32 @madd_scalar(i32 %m00, i32 %m01, i32 %m10, i32 %m11) nounwind {
1010; CHECK-NEXT: addiw a0, a0, 32
1111; CHECK-NEXT: ret
1212entry:
13- %mul0 = mul nsw i32 %m00 , %m01
14- %mul1 = mul nsw i32 %m10 , %m11
13+ %mul0 = mul i32 %m00 , %m01
14+ %mul1 = mul i32 %m10 , %m11
1515 %add0 = add i32 %mul0 , 32
1616 %add1 = add i32 %add0 , %mul1
1717 ret i32 %add1
@@ -25,8 +25,8 @@ define <8 x i32> @vmadd_non_constant(<8 x i32> %m00, <8 x i32> %m01, <8 x i32> %
2525; CHECK-NEXT: vmacc.vv v8, v14, v12
2626; CHECK-NEXT: ret
2727entry:
28- %mul0 = mul nsw <8 x i32 > %m00 , %m01
29- %mul1 = mul nsw <8 x i32 > %m10 , %m11
28+ %mul0 = mul <8 x i32 > %m00 , %m01
29+ %mul1 = mul <8 x i32 > %m10 , %m11
3030 %add0 = add <8 x i32 > %mul0 , %addend
3131 %add1 = add <8 x i32 > %add0 , %mul1
3232 ret <8 x i32 > %add1
@@ -41,7 +41,7 @@ define <vscale x 1 x i32> @vmadd_vscale_no_chain(<vscale x 1 x i32> %m00, <vscal
4141; CHECK-NEXT: vmadd.vv v8, v9, v10
4242; CHECK-NEXT: ret
4343entry:
44- %mul = mul nsw <vscale x 1 x i32 > %m00 , %m01
44+ %mul = mul <vscale x 1 x i32 > %m00 , %m01
4545 %add = add <vscale x 1 x i32 > %mul , splat (i32 32 )
4646 ret <vscale x 1 x i32 > %add
4747}
@@ -55,7 +55,7 @@ define <8 x i32> @vmadd_fixed_no_chain(<8 x i32> %m00, <8 x i32> %m01) {
5555; CHECK-NEXT: vmadd.vv v8, v10, v12
5656; CHECK-NEXT: ret
5757entry:
58- %mul = mul nsw <8 x i32 > %m00 , %m01
58+ %mul = mul <8 x i32 > %m00 , %m01
5959 %add = add <8 x i32 > %mul , splat (i32 32 )
6060 ret <8 x i32 > %add
6161}
@@ -70,8 +70,8 @@ define <vscale x 1 x i32> @vmadd_vscale(<vscale x 1 x i32> %m00, <vscale x 1 x i
7070; CHECK-NEXT: vmacc.vv v8, v11, v10
7171; CHECK-NEXT: ret
7272entry:
73- %mul0 = mul nsw <vscale x 1 x i32 > %m00 , %m01
74- %mul1 = mul nsw <vscale x 1 x i32 > %m10 , %m11
73+ %mul0 = mul <vscale x 1 x i32 > %m00 , %m01
74+ %mul1 = mul <vscale x 1 x i32 > %m10 , %m11
7575 %add0 = add <vscale x 1 x i32 > %mul0 , splat (i32 32 )
7676 %add1 = add <vscale x 1 x i32 > %add0 , %mul1
7777 ret <vscale x 1 x i32 > %add1
@@ -87,8 +87,8 @@ define <8 x i32> @vmadd_fixed(<8 x i32> %m00, <8 x i32> %m01, <8 x i32> %m10, <8
8787; CHECK-NEXT: vmacc.vv v8, v14, v12
8888; CHECK-NEXT: ret
8989entry:
90- %mul0 = mul nsw <8 x i32 > %m00 , %m01
91- %mul1 = mul nsw <8 x i32 > %m10 , %m11
90+ %mul0 = mul <8 x i32 > %m00 , %m01
91+ %mul1 = mul <8 x i32 > %m10 , %m11
9292 %add0 = add <8 x i32 > %mul0 , splat (i32 32 )
9393 %add1 = add <8 x i32 > %add0 , %mul1
9494 ret <8 x i32 > %add1
@@ -107,10 +107,10 @@ define <vscale x 1 x i32> @vmadd_vscale_long(<vscale x 1 x i32> %m00, <vscale x
107107; CHECK-NEXT: ret
108108 <vscale x 1 x i32 > %m20 , <vscale x 1 x i32 > %m21 , <vscale x 1 x i32 > %m30 , <vscale x 1 x i32 > %m31 ) {
109109entry:
110- %mul0 = mul nsw <vscale x 1 x i32 > %m00 , %m01
111- %mul1 = mul nsw <vscale x 1 x i32 > %m10 , %m11
112- %mul2 = mul nsw <vscale x 1 x i32 > %m20 , %m21
113- %mul3 = mul nsw <vscale x 1 x i32 > %m30 , %m31
110+ %mul0 = mul <vscale x 1 x i32 > %m00 , %m01
111+ %mul1 = mul <vscale x 1 x i32 > %m10 , %m11
112+ %mul2 = mul <vscale x 1 x i32 > %m20 , %m21
113+ %mul3 = mul <vscale x 1 x i32 > %m30 , %m31
114114 %add0 = add <vscale x 1 x i32 > %mul0 , splat (i32 32 )
115115 %add1 = add <vscale x 1 x i32 > %add0 , %mul1
116116 %add2 = add <vscale x 1 x i32 > %add1 , %mul2
@@ -131,10 +131,10 @@ define <8 x i32> @vmadd_fixed_long(<8 x i32> %m00, <8 x i32> %m01, <8 x i32> %m1
131131; CHECK-NEXT: ret
132132 <8 x i32 > %m20 , <8 x i32 > %m21 , <8 x i32 > %m30 , <8 x i32 > %m31 ) {
133133entry:
134- %mul0 = mul nsw <8 x i32 > %m00 , %m01
135- %mul1 = mul nsw <8 x i32 > %m10 , %m11
136- %mul2 = mul nsw <8 x i32 > %m20 , %m21
137- %mul3 = mul nsw <8 x i32 > %m30 , %m31
134+ %mul0 = mul <8 x i32 > %m00 , %m01
135+ %mul1 = mul <8 x i32 > %m10 , %m11
136+ %mul2 = mul <8 x i32 > %m20 , %m21
137+ %mul3 = mul <8 x i32 > %m30 , %m31
138138 %add0 = add <8 x i32 > %mul0 , splat (i32 32 )
139139 %add1 = add <8 x i32 > %add0 , %mul1
140140 %add2 = add <8 x i32 > %add1 , %mul2
0 commit comments