OLD | NEW |
1 // Copyright 2016 the V8 project authors. All rights reserved. | 1 // Copyright 2016 the V8 project authors. All rights reserved. |
2 // Use of this source code is governed by a BSD-style license that can be | 2 // Use of this source code is governed by a BSD-style license that can be |
3 // found in the LICENSE file. | 3 // found in the LICENSE file. |
4 | 4 |
5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ | 5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ |
6 #define V8_CODE_STUB_ASSEMBLER_H_ | 6 #define V8_CODE_STUB_ASSEMBLER_H_ |
7 | 7 |
8 #include <functional> | 8 #include <functional> |
9 | 9 |
10 #include "src/compiler/code-assembler.h" | 10 #include "src/compiler/code-assembler.h" |
(...skipping 102 matching lines...) Expand 10 before | Expand all | Expand 10 after Loading... |
113 | 113 |
114 // Smi operations. | 114 // Smi operations. |
115 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); | 115 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); |
116 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); | 116 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); |
117 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); | 117 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); |
118 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); | 118 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); |
119 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); | 119 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); |
120 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); | 120 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); |
121 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); | 121 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); |
122 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); | 122 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); |
| 123 compiler::Node* SmiMax(compiler::Node* a, compiler::Node* b); |
123 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); | 124 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); |
124 // Computes a % b for Smi inputs a and b; result is not necessarily a Smi. | 125 // Computes a % b for Smi inputs a and b; result is not necessarily a Smi. |
125 compiler::Node* SmiMod(compiler::Node* a, compiler::Node* b); | 126 compiler::Node* SmiMod(compiler::Node* a, compiler::Node* b); |
126 // Computes a * b for Smi inputs a and b; result is not necessarily a Smi. | 127 // Computes a * b for Smi inputs a and b; result is not necessarily a Smi. |
127 compiler::Node* SmiMul(compiler::Node* a, compiler::Node* b); | 128 compiler::Node* SmiMul(compiler::Node* a, compiler::Node* b); |
128 compiler::Node* SmiOr(compiler::Node* a, compiler::Node* b) { | 129 compiler::Node* SmiOr(compiler::Node* a, compiler::Node* b) { |
129 return WordOr(a, b); | 130 return WordOr(a, b); |
130 } | 131 } |
131 | 132 |
132 // Allocate an object of the given size. | 133 // Allocate an object of the given size. |
(...skipping 705 matching lines...) Expand 10 before | Expand all | Expand 10 after Loading... |
838 Label* bailout); | 839 Label* bailout); |
839 | 840 |
840 static const int kElementLoopUnrollThreshold = 8; | 841 static const int kElementLoopUnrollThreshold = 8; |
841 }; | 842 }; |
842 | 843 |
843 DEFINE_OPERATORS_FOR_FLAGS(CodeStubAssembler::AllocationFlags); | 844 DEFINE_OPERATORS_FOR_FLAGS(CodeStubAssembler::AllocationFlags); |
844 | 845 |
845 } // namespace internal | 846 } // namespace internal |
846 } // namespace v8 | 847 } // namespace v8 |
847 #endif // V8_CODE_STUB_ASSEMBLER_H_ | 848 #endif // V8_CODE_STUB_ASSEMBLER_H_ |
OLD | NEW |