| OLD | NEW |
| 1 // Copyright 2016 the V8 project authors. All rights reserved. | 1 // Copyright 2016 the V8 project authors. All rights reserved. |
| 2 // Use of this source code is governed by a BSD-style license that can be | 2 // Use of this source code is governed by a BSD-style license that can be |
| 3 // found in the LICENSE file. | 3 // found in the LICENSE file. |
| 4 | 4 |
| 5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ | 5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ |
| 6 #define V8_CODE_STUB_ASSEMBLER_H_ | 6 #define V8_CODE_STUB_ASSEMBLER_H_ |
| 7 | 7 |
| 8 #include "src/compiler/code-assembler.h" | 8 #include "src/compiler/code-assembler.h" |
| 9 #include "src/objects.h" | 9 #include "src/objects.h" |
| 10 | 10 |
| (...skipping 14 matching lines...) Expand all Loading... |
| 25 // TODO(rmcilroy): move result_size to the CallInterfaceDescriptor. | 25 // TODO(rmcilroy): move result_size to the CallInterfaceDescriptor. |
| 26 CodeStubAssembler(Isolate* isolate, Zone* zone, | 26 CodeStubAssembler(Isolate* isolate, Zone* zone, |
| 27 const CallInterfaceDescriptor& descriptor, | 27 const CallInterfaceDescriptor& descriptor, |
| 28 Code::Flags flags, const char* name, | 28 Code::Flags flags, const char* name, |
| 29 size_t result_size = 1); | 29 size_t result_size = 1); |
| 30 | 30 |
| 31 // Create with JSCall linkage. | 31 // Create with JSCall linkage. |
| 32 CodeStubAssembler(Isolate* isolate, Zone* zone, int parameter_count, | 32 CodeStubAssembler(Isolate* isolate, Zone* zone, int parameter_count, |
| 33 Code::Flags flags, const char* name); | 33 Code::Flags flags, const char* name); |
| 34 | 34 |
| 35 compiler::Node* BooleanMapConstant(); |
| 36 compiler::Node* EmptyStringConstant(); |
| 37 compiler::Node* HeapNumberMapConstant(); |
| 38 compiler::Node* NoContextConstant(); |
| 39 compiler::Node* NullConstant(); |
| 40 compiler::Node* UndefinedConstant(); |
| 41 |
| 35 // Float64 operations. | 42 // Float64 operations. |
| 36 compiler::Node* Float64Ceil(compiler::Node* x); | 43 compiler::Node* Float64Ceil(compiler::Node* x); |
| 37 compiler::Node* Float64Floor(compiler::Node* x); | 44 compiler::Node* Float64Floor(compiler::Node* x); |
| 38 compiler::Node* Float64Round(compiler::Node* x); | 45 compiler::Node* Float64Round(compiler::Node* x); |
| 39 compiler::Node* Float64Trunc(compiler::Node* x); | 46 compiler::Node* Float64Trunc(compiler::Node* x); |
| 40 | 47 |
| 48 // Tag a Word as a Smi value. |
| 49 compiler::Node* SmiTag(compiler::Node* value); |
| 50 // Untag a Smi value as a Word. |
| 51 compiler::Node* SmiUntag(compiler::Node* value); |
| 52 |
| 41 // Smi conversions. | 53 // Smi conversions. |
| 42 compiler::Node* SmiToFloat64(compiler::Node* value); | 54 compiler::Node* SmiToFloat64(compiler::Node* value); |
| 43 compiler::Node* SmiFromWord32(compiler::Node* value); | 55 compiler::Node* SmiFromWord32(compiler::Node* value); |
| 44 compiler::Node* SmiToWord(compiler::Node* value) { return SmiUntag(value); } | 56 compiler::Node* SmiToWord(compiler::Node* value) { return SmiUntag(value); } |
| 45 compiler::Node* SmiToWord32(compiler::Node* value); | 57 compiler::Node* SmiToWord32(compiler::Node* value); |
| 46 | 58 |
| 47 // Smi operations. | 59 // Smi operations. |
| 48 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); | 60 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); |
| 49 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); | 61 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); |
| 50 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); | 62 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); |
| 51 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); | 63 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); |
| 52 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); | 64 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); |
| 53 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); | 65 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); |
| 54 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); | 66 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); |
| 55 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); | 67 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); |
| 56 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); | 68 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); |
| 57 | 69 |
| 70 // Allocate an object of the given size. |
| 71 compiler::Node* Allocate(int size, AllocationFlags flags = kNone); |
| 72 compiler::Node* InnerAllocate(compiler::Node* previous, int offset); |
| 73 |
| 58 // Check a value for smi-ness | 74 // Check a value for smi-ness |
| 59 compiler::Node* WordIsSmi(compiler::Node* a); | 75 compiler::Node* WordIsSmi(compiler::Node* a); |
| 60 // Check that the value is a positive smi. | 76 // Check that the value is a positive smi. |
| 61 compiler::Node* WordIsPositiveSmi(compiler::Node* a); | 77 compiler::Node* WordIsPositiveSmi(compiler::Node* a); |
| 62 | 78 |
| 63 void BranchIfSmiLessThan(compiler::Node* a, compiler::Node* b, Label* if_true, | 79 void BranchIfSmiLessThan(compiler::Node* a, compiler::Node* b, Label* if_true, |
| 64 Label* if_false) { | 80 Label* if_false) { |
| 65 BranchIf(SmiLessThan(a, b), if_true, if_false); | 81 BranchIf(SmiLessThan(a, b), if_true, if_false); |
| 66 } | 82 } |
| 67 | 83 |
| (...skipping 104 matching lines...) Expand 10 before | Expand all | Expand 10 after Loading... |
| 172 compiler::Node* StringFromCharCode(compiler::Node* code); | 188 compiler::Node* StringFromCharCode(compiler::Node* code); |
| 173 | 189 |
| 174 // Returns a node that is true if the given bit is set in |word32|. | 190 // Returns a node that is true if the given bit is set in |word32|. |
| 175 template <typename T> | 191 template <typename T> |
| 176 compiler::Node* BitFieldDecode(compiler::Node* word32) { | 192 compiler::Node* BitFieldDecode(compiler::Node* word32) { |
| 177 return BitFieldDecode(word32, T::kShift, T::kMask); | 193 return BitFieldDecode(word32, T::kShift, T::kMask); |
| 178 } | 194 } |
| 179 | 195 |
| 180 compiler::Node* BitFieldDecode(compiler::Node* word32, uint32_t shift, | 196 compiler::Node* BitFieldDecode(compiler::Node* word32, uint32_t shift, |
| 181 uint32_t mask); | 197 uint32_t mask); |
| 198 |
| 199 private: |
| 200 compiler::Node* AllocateRawAligned(compiler::Node* size_in_bytes, |
| 201 AllocationFlags flags, |
| 202 compiler::Node* top_address, |
| 203 compiler::Node* limit_address); |
| 204 compiler::Node* AllocateRawUnaligned(compiler::Node* size_in_bytes, |
| 205 AllocationFlags flags, |
| 206 compiler::Node* top_adddress, |
| 207 compiler::Node* limit_address); |
| 182 }; | 208 }; |
| 183 | 209 |
| 184 } // namespace internal | 210 } // namespace internal |
| 185 } // namespace v8 | 211 } // namespace v8 |
| 186 | 212 |
| 187 #endif // V8_CODE_STUB_ASSEMBLER_H_ | 213 #endif // V8_CODE_STUB_ASSEMBLER_H_ |
| OLD | NEW |