[x86] fix assert with horizontal math + broadcast of vector (PR43402)
[llvm-core.git] / lib / Target / X86 / X86InstrVMX.td
blob37bc4ce2e053701e99d93af3471dde65ae2a2324
1 //===-- X86InstrVMX.td - VMX Instruction Set Extension -----*- tablegen -*-===//
2 //
3 // Part of the LLVM Project, under the Apache License v2.0 with LLVM Exceptions.
4 // See https://llvm.org/LICENSE.txt for license information.
5 // SPDX-License-Identifier: Apache-2.0 WITH LLVM-exception
6 //
7 //===----------------------------------------------------------------------===//
8 //
9 // This file describes the instructions that make up the Intel VMX instruction
10 // set.
12 //===----------------------------------------------------------------------===//
14 //===----------------------------------------------------------------------===//
15 // VMX instructions
17 let SchedRW = [WriteSystem] in {
18 // 66 0F 38 80
19 def INVEPT32 : I<0x80, MRMSrcMem, (outs), (ins GR32:$src1, i128mem:$src2),
20                "invept\t{$src2, $src1|$src1, $src2}", []>, T8PD,
21                Requires<[Not64BitMode]>;
22 def INVEPT64 : I<0x80, MRMSrcMem, (outs), (ins GR64:$src1, i128mem:$src2),
23                "invept\t{$src2, $src1|$src1, $src2}", []>, T8PD,
24                Requires<[In64BitMode]>;
26 // 66 0F 38 81
27 def INVVPID32 : I<0x81, MRMSrcMem, (outs), (ins GR32:$src1, i128mem:$src2),
28                 "invvpid\t{$src2, $src1|$src1, $src2}", []>, T8PD,
29                 Requires<[Not64BitMode]>;
30 def INVVPID64 : I<0x81, MRMSrcMem, (outs), (ins GR64:$src1, i128mem:$src2),
31                 "invvpid\t{$src2, $src1|$src1, $src2}", []>, T8PD,
32                 Requires<[In64BitMode]>;
34 // 0F 01 C1
35 def VMCALL : I<0x01, MRM_C1, (outs), (ins), "vmcall", []>, TB;
36 def VMCLEARm : I<0xC7, MRM6m, (outs), (ins i64mem:$vmcs),
37   "vmclear\t$vmcs", []>, PD;
39 // OF 01 D4
40 def VMFUNC : I<0x01, MRM_D4, (outs), (ins), "vmfunc", []>, TB;
42 // 0F 01 C2
43 def VMLAUNCH : I<0x01, MRM_C2, (outs), (ins), "vmlaunch", []>, TB;
45 // 0F 01 C3
46 def VMRESUME : I<0x01, MRM_C3, (outs), (ins), "vmresume", []>, TB;
47 def VMPTRLDm : I<0xC7, MRM6m, (outs), (ins i64mem:$vmcs),
48   "vmptrld\t$vmcs", []>, PS;
49 def VMPTRSTm : I<0xC7, MRM7m, (outs), (ins i64mem:$vmcs),
50   "vmptrst\t$vmcs", []>, PS;
51 def VMREAD64rr : I<0x78, MRMDestReg, (outs GR64:$dst), (ins GR64:$src),
52   "vmread{q}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[In64BitMode]>,
53   NotMemoryFoldable;
54 def VMREAD32rr : I<0x78, MRMDestReg, (outs GR32:$dst), (ins GR32:$src),
55   "vmread{l}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[Not64BitMode]>,
56   NotMemoryFoldable;
58 let mayStore = 1 in {
59 def VMREAD64mr : I<0x78, MRMDestMem, (outs), (ins i64mem:$dst, GR64:$src),
60   "vmread{q}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[In64BitMode]>,
61   NotMemoryFoldable;
62 def VMREAD32mr : I<0x78, MRMDestMem, (outs), (ins i32mem:$dst, GR32:$src),
63   "vmread{l}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[Not64BitMode]>,
64   NotMemoryFoldable;
65 } // mayStore
67 def VMWRITE64rr : I<0x79, MRMSrcReg, (outs GR64:$dst), (ins GR64:$src),
68   "vmwrite{q}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[In64BitMode]>,
69   NotMemoryFoldable;
70 def VMWRITE32rr : I<0x79, MRMSrcReg, (outs GR32:$dst), (ins GR32:$src),
71   "vmwrite{l}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[Not64BitMode]>,
72   NotMemoryFoldable;
74 let mayLoad = 1 in {
75 def VMWRITE64rm : I<0x79, MRMSrcMem, (outs GR64:$dst), (ins i64mem:$src),
76   "vmwrite{q}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[In64BitMode]>,
77   NotMemoryFoldable;
78 def VMWRITE32rm : I<0x79, MRMSrcMem, (outs GR32:$dst), (ins i32mem:$src),
79   "vmwrite{l}\t{$src, $dst|$dst, $src}", []>, PS, Requires<[Not64BitMode]>,
80   NotMemoryFoldable;
81 } // mayLoad
83 // 0F 01 C4
84 def VMXOFF : I<0x01, MRM_C4, (outs), (ins), "vmxoff", []>, TB;
85 def VMXON : I<0xC7, MRM6m, (outs), (ins i64mem:$vmxon),
86   "vmxon\t$vmxon", []>, XS;
87 } // SchedRW