• [WebKit内核] JavaScriptCore深度解析基础篇(一)字节码生成及语法树的构建详情分析


    看到HorkeyChen写的文章《[WebKit] JavaScriptCore解析--基础篇(三)从脚本代码到JIT编译的代码实现》,写的很好,深受启发。想补充一些Horkey没有写到的细节比如字节码是如何生成的等等,为此成文。

          JSC对JavaScript的处理,其实与Webkit对CSS的处理许多地方是类似的,它这么几个部分:

    (1)词法分析->出来词语(Token);

    (2)语法分析->出来抽象语法树(AST:Abstract Syntax Tree);

    (3)遍历抽象语法树->生成字节码(Bytecode);

    (4)用解释器(LLInt:Low Level Interpreter)执行字节码;

    (5)如果性能不够好就用Baseline JIT编译字节码生成机器码、然后执行此机器码;

    (6)如果性能还不够好,就用DFG JIT重新编译字节码生成更好的机器码、然后执行此机器码;

    (7)最后,如果还不好,就祭出重器--虚拟器(LLVM:Low Level Virtual Machine)来编译DFG的中间表示代码、生成更高优化的机器码并执行。接下来,我将会用一下系列文章描述此过程。

          其中,步骤1、2是类似的,3、4、5步的思想,CSS JIT也是采用类似方法,请参考[1]。想写写JSC的文章,用菜鸟和愚公移山的方式,敲开JSC的冰山一角。

    本篇主要描述词法和语法解析的细节。

     一、 JavaScriptCore的词法分析器工作流程分析

        W3C是这么解释词法和语法工作流程的:

     词法器Tokenizer的工作过程如下,就是不断从字符串中寻找一个个的词(Token),比如找到连续的“true”字符串,就创建一个TokenTrue。词法器工作过程如下:

    JavaScriptCore/interpreter/interpreter.cpp:
    template <typename CharType>

    1. template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)  
    2. {  
    3.     while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))  
    4.         ++m_ptr;  
    5.   
    6.     if (m_ptr >= m_end) {  
    7.         token.type = TokEnd;  
    8.         token.start = token.end = m_ptr;  
    9.         return TokEnd;  
    10.     }  
    11.     token.type = TokError;  
    12.     token.start = m_ptr;  
    13.     switch (*m_ptr) {  
    14.         case '[':  
    15.             token.type = TokLBracket;  
    16.             token.end = ++m_ptr;  
    17.             return TokLBracket;  
    18.         case ']':  
    19.             token.type = TokRBracket;  
    20.             token.end = ++m_ptr;  
    21.             return TokRBracket;  
    22.         case '(':  
    23.             token.type = TokLParen;  
    24.             token.end = ++m_ptr;  
    25.             return TokLParen;  
    26.         case ')':  
    27.             token.type = TokRParen;  
    28.             token.end = ++m_ptr;  
    29.             return TokRParen;  
    30.         case ',':  
    31.             token.type = TokComma;  
    32.             token.end = ++m_ptr;  
    33.             return TokComma;  
    34.         case ':':  
    35.             token.type = TokColon;  
    36.             token.end = ++m_ptr;  
    37.             return TokColon;  
    38.         case '"':  
    39.             return lexString<mode, '"'>(token);  
    40.         case 't':  
    41.             if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {  
    42.                 m_ptr += 4;  
    43.                 token.type = TokTrue;  
    44.                 token.end = m_ptr;  
    45.                 return TokTrue;  
    46.             }  
    47.             break;  
    48.         case '-':  
    49.         case '0':  
    template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
    {
        while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
            ++m_ptr;
    
        if (m_ptr >= m_end) {
            token.type = TokEnd;
            token.start = token.end = m_ptr;
            return TokEnd;
        }
        token.type = TokError;
        token.start = m_ptr;
        switch (*m_ptr) {
            case '[':
                token.type = TokLBracket;
                token.end = ++m_ptr;
                return TokLBracket;
            case ']':
                token.type = TokRBracket;
                token.end = ++m_ptr;
                return TokRBracket;
            case '(':
                token.type = TokLParen;
                token.end = ++m_ptr;
                return TokLParen;
            case ')':
                token.type = TokRParen;
                token.end = ++m_ptr;
                return TokRParen;
            case ',':
                token.type = TokComma;
                token.end = ++m_ptr;
                return TokComma;
            case ':':
                token.type = TokColon;
                token.end = ++m_ptr;
                return TokColon;
            case '"':
                return lexString<mode, '"'>(token);
            case 't':
                if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
                    m_ptr += 4;
                    token.type = TokTrue;
                    token.end = m_ptr;
                    return TokTrue;
                }
                break;
            case '-':
            case '0':
    1.         ...  
    2.         case '9':  
    3.             return lexNumber(token);  
    4.     }  
    5.     if (m_ptr < m_end) {  
    6.         if (*m_ptr == '.') {  
    7.             token.type = TokDot;  
    8.             token.end = ++m_ptr;  
    9.             return TokDot;  
    10.         }  
    11.         if (*m_ptr == '=') {  
    12.             token.type = TokAssign;  
    13.             token.end = ++m_ptr;  
    14.             return TokAssign;  
    15.         }  
    16.         if (*m_ptr == ';') {  
    17.             token.type = TokSemi;  
    18.             token.end = ++m_ptr;  
    19.             return TokAssign;  
    20.         }  
    21.         if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')  
    22.             return lexIdentifier(token);  
    23.         if (*m_ptr == '\'') {  
    24.             return lexString<mode, '\''>(token);  
    25.         }  
    26.     }  
    27.     m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();  
    28.     return TokError;  
    29. }  
            ...
            case '9':
                return lexNumber(token);
        }
        if (m_ptr < m_end) {
            if (*m_ptr == '.') {
                token.type = TokDot;
                token.end = ++m_ptr;
                return TokDot;
            }
            if (*m_ptr == '=') {
                token.type = TokAssign;
                token.end = ++m_ptr;
                return TokAssign;
            }
            if (*m_ptr == ';') {
                token.type = TokSemi;
                token.end = ++m_ptr;
                return TokAssign;
            }
            if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
                return lexIdentifier(token);
            if (*m_ptr == '\'') {
                return lexString<mode, '\''>(token);
            }
        }
        m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
        return TokError;
    }

          经过此过程,一个完整的JSC世界的Token就生成了。然后,再进行语法分析,生成抽象语法树.

    JavaScriptCore/parser/parser.cpp:

    1. <span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>  
    <span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>
    1. {  
    2.     ASSERT(lexicalGlobalObject);  
    3.     ASSERT(exception && !*exception);  
    4.     int errLine;  
    5.     UString errMsg;  
    6.   
    7.     if (ParsedNode::scopeIsFunction)  
    8.         m_lexer->setIsReparsing();  
    9.   
    10.     m_sourceElements = 0;  
    11.   
    12.     errLine = -1;  
    13.     errMsg = UString();  
    14.   
    15.     UString parseError = parseInner();  
    16.     。。。  
    17. }  
    {
        ASSERT(lexicalGlobalObject);
        ASSERT(exception && !*exception);
        int errLine;
        UString errMsg;
    
        if (ParsedNode::scopeIsFunction)
            m_lexer->setIsReparsing();
    
        m_sourceElements = 0;
    
        errLine = -1;
        errMsg = UString();
    
        UString parseError = parseInner();
        。。。
    }

    UString Parser<LexerType>::parseInner()
    1. {  
    2.     UString parseError = UString();  
    3.       
    4.     unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;  
    {
        UString parseError = UString();
        
        unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;
    1. //抽象语法树Builder:   
    2. ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));  
    3. if (m_lexer->isReparsing())  
    4.     m_statementDepth--;  
    5. ScopeRef scope = currentScope();  
        //抽象语法树Builder:
        ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
        if (m_lexer->isReparsing())
            m_statementDepth--;
        ScopeRef scope = currentScope();
    1. //开始解析生成语法树的一个节点:   
    2. SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);  
    3. if (!sourceElements || !consume(EOFTOK))  
        //开始解析生成语法树的一个节点:
        SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
        if (!sourceElements || !consume(EOFTOK))
    

             举例说来,根据Token的类型,JSC认为输入的Token是一个常量声明,就会使用如下的模板函数生成语法节点(Node),然后放入ASTBuilder里面:
    1. JavaScriptCore/bytecompiler/NodeCodeGen.cpp:  
    2. template <typename LexerType>  
    3. template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)  
    4. {  
    5.     failIfTrue(strictMode());  
    6.     TreeConstDeclList constDecls = 0;  
    7.     TreeConstDeclList tail = 0;  
    8.     do {  
    9.         next();  
    10.         matchOrFail(IDENT);  
    11.         const Identifier* name = m_token.m_data.ident;  
    12.         next();  
    13.         bool hasInitializer = match(EQUAL);  
    14.         declareVariable(name);  
    15.         context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));  
    16.         TreeExpression initializer = 0;  
    17.         if (hasInitializer) {  
    18.             next(TreeBuilder::DontBuildStrings); // consume '='   
    19.             initializer = parseAssignmentExpression(context);  
    20.         }  
    21.         tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);  
    22.         if (!constDecls)  
    23.             constDecls = tail;  
    24.     } while (match(COMMA));  
    25.     return constDecls;  
    26. }  
    JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
    template <typename LexerType>
    template <class TreeBuilder> TreeConstDeclList Parser<LexerType>::parseConstDeclarationList(TreeBuilder& context)
    {
        failIfTrue(strictMode());
        TreeConstDeclList constDecls = 0;
        TreeConstDeclList tail = 0;
        do {
            next();
            matchOrFail(IDENT);
            const Identifier* name = m_token.m_data.ident;
            next();
            bool hasInitializer = match(EQUAL);
            declareVariable(name);
            context.addVar(name, DeclarationStacks::IsConstant | (hasInitializer ? DeclarationStacks::HasInitializer : 0));
            TreeExpression initializer = 0;
            if (hasInitializer) {
                next(TreeBuilder::DontBuildStrings); // consume '='
                initializer = parseAssignmentExpression(context);
            }
            tail = context.appendConstDecl(m_lexer->lastLineNumber(), tail, name, initializer);
            if (!constDecls)
                constDecls = tail;
        } while (match(COMMA));
        return constDecls;
    }

          接下来,就会调用BytecodeGenerator::generate生成字节码,具体分下节分析。我们先看看下面来自JavaScript的一个个语法树节点生成字节码的过程:

    JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
    RegisterID* BooleanNode::emitBytecode(BytecodeGenerator& generator, RegisterID* dst)

    1. {  
    2.     if (dst == generator.ignoredResult())  
    3.         return 0;  
    4.     return generator.emitLoad(dst, m_value);  
    5. }  
    {
        if (dst == generator.ignoredResult())
            return 0;
        return generator.emitLoad(dst, m_value);
    }

         以下是我准备写的文章题目:

    一、 JavaScriptCore的词法分析器工作流程分析;

    二、 JavaScriptCore的语法分析器工作流程分析;

    三、 JavaScriptCore的字节码生成流程分析;

    四、 LLInt解释器工作流程分析;

    五、 Baseline JIT编译器的工作流程分析;

    六、 DFG JIT编译器的工作流程分析;

    七、LLVM虚拟机的工作流程分析;

    八、JavaScriptCore的未来展望;

         文笔粗糙,不善表达,希望能越写越好。

    引用:

    1 https://www.webkit.org/blog/3271/webkit-css-selector-jit-compiler/

    2 http://blog.csdn.net/horkychen/article/details/8928578

    第一时间获得博客更新提醒,以及更多技术信息分享,欢迎关注个人微信公众平台:程序员互动联盟(coder_online),扫一扫下方二维码或搜索微信号coder_online即可关注,我们可以在线交流。

  • 相关阅读:
    powerful number 小记
    CF573E Bear and Bowling
    Diary 2.0
    【LOJ2540】「PKUWC2018」随机算法
    【Luogu2496】【BZOJ3005】[SDOI2012]体育课
    CF-diary
    【CF1217F】Forced Online Queries Problem
    NOI2019 选做
    Codeforces Round #568 (Div. 2) 选做
    【LOJ2513】「BJOI2018」治疗之雨
  • 原文地址:https://www.cnblogs.com/yistn/p/4370904.html
Copyright © 2020-2023  润新知