| OLD | NEW |
| 1 // Copyright 2016 the V8 project authors. All rights reserved. | 1 // Copyright 2016 the V8 project authors. All rights reserved. |
| 2 // Use of this source code is governed by a BSD-style license that can be | 2 // Use of this source code is governed by a BSD-style license that can be |
| 3 // found in the LICENSE file. | 3 // found in the LICENSE file. |
| 4 | 4 |
| 5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ | 5 #ifndef V8_CODE_STUB_ASSEMBLER_H_ |
| 6 #define V8_CODE_STUB_ASSEMBLER_H_ | 6 #define V8_CODE_STUB_ASSEMBLER_H_ |
| 7 | 7 |
| 8 #include <functional> | 8 #include <functional> |
| 9 | 9 |
| 10 #include "src/compiler/code-assembler.h" | 10 #include "src/compiler/code-assembler.h" |
| (...skipping 102 matching lines...) Expand 10 before | Expand all | Expand 10 after Loading... |
| 113 | 113 |
| 114 // Smi operations. | 114 // Smi operations. |
| 115 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); | 115 compiler::Node* SmiAdd(compiler::Node* a, compiler::Node* b); |
| 116 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); | 116 compiler::Node* SmiAddWithOverflow(compiler::Node* a, compiler::Node* b); |
| 117 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); | 117 compiler::Node* SmiSub(compiler::Node* a, compiler::Node* b); |
| 118 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); | 118 compiler::Node* SmiSubWithOverflow(compiler::Node* a, compiler::Node* b); |
| 119 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); | 119 compiler::Node* SmiEqual(compiler::Node* a, compiler::Node* b); |
| 120 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); | 120 compiler::Node* SmiAboveOrEqual(compiler::Node* a, compiler::Node* b); |
| 121 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); | 121 compiler::Node* SmiLessThan(compiler::Node* a, compiler::Node* b); |
| 122 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); | 122 compiler::Node* SmiLessThanOrEqual(compiler::Node* a, compiler::Node* b); |
| 123 compiler::Node* SmiMax(compiler::Node* a, compiler::Node* b); |
| 123 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); | 124 compiler::Node* SmiMin(compiler::Node* a, compiler::Node* b); |
| 124 // Computes a % b for Smi inputs a and b; result is not necessarily a Smi. | 125 // Computes a % b for Smi inputs a and b; result is not necessarily a Smi. |
| 125 compiler::Node* SmiMod(compiler::Node* a, compiler::Node* b); | 126 compiler::Node* SmiMod(compiler::Node* a, compiler::Node* b); |
| 126 // Computes a * b for Smi inputs a and b; result is not necessarily a Smi. | 127 // Computes a * b for Smi inputs a and b; result is not necessarily a Smi. |
| 127 compiler::Node* SmiMul(compiler::Node* a, compiler::Node* b); | 128 compiler::Node* SmiMul(compiler::Node* a, compiler::Node* b); |
| 128 compiler::Node* SmiOr(compiler::Node* a, compiler::Node* b) { | 129 compiler::Node* SmiOr(compiler::Node* a, compiler::Node* b) { |
| 129 return WordOr(a, b); | 130 return WordOr(a, b); |
| 130 } | 131 } |
| 131 | 132 |
| 132 // Allocate an object of the given size. | 133 // Allocate an object of the given size. |
| (...skipping 705 matching lines...) Expand 10 before | Expand all | Expand 10 after Loading... |
| 838 Label* bailout); | 839 Label* bailout); |
| 839 | 840 |
| 840 static const int kElementLoopUnrollThreshold = 8; | 841 static const int kElementLoopUnrollThreshold = 8; |
| 841 }; | 842 }; |
| 842 | 843 |
| 843 DEFINE_OPERATORS_FOR_FLAGS(CodeStubAssembler::AllocationFlags); | 844 DEFINE_OPERATORS_FOR_FLAGS(CodeStubAssembler::AllocationFlags); |
| 844 | 845 |
| 845 } // namespace internal | 846 } // namespace internal |
| 846 } // namespace v8 | 847 } // namespace v8 |
| 847 #endif // V8_CODE_STUB_ASSEMBLER_H_ | 848 #endif // V8_CODE_STUB_ASSEMBLER_H_ |
| OLD | NEW |