• 软件测试作业1(原型方法)


    软件测试 Assginment 1

    15331023 陈康怡

    题目:正确理解原型方法对软件生命周期不同阶段的支持,分别给出:辅助或代替分析阶段;辅助设计阶段;代替分析与设计阶段;代替分析、设计和实现阶段;代替全部开发阶段所对应的开发活动执行时间顺序。

    辅助或代替分析阶段:

    输入:初步需求 -> 【进入原型方法的循环:快速分析需求 -> 快速构造需求说明 -> 评价反馈 -> 根据反馈继续循环直到得到明确的需求说明】 -> 设计 -> 编码 -> 输出:软件产品 -> 运行维护

    辅助设计阶段:

    输入:初步需求 -> 需求分析 -> 【进入原型方法的循环:根据需求快速分析 -> 快速构造设计说明 -> 用户使用(工程师测试等) -> 评价反馈 -> 根据反馈继续循环直到得到完善的设计说明(合适的系统架构设计等)】 -> 编码 -> 输出:软件产品 -> 运行维护

    代替分析与设计阶段:

    输入:初步需求 -> 【进入原型方法的循环:快速分析需求 -> 快速构造设计说明 -> 用户使用 -> 评价反馈 -> 根据反馈继续循环直到得到完善的需求说明和设计说明】 -> 编码 -> 输出:软件产品 -> 运行维护

    代替分析、设计和实现阶段:

    输入:初步需求 -> 【进入原型方法的循环:快速分析需求 -> 快速构造设计说明 -> 快速构造程序系统(编码) -> 用户使用程序系统 -> 评价反馈 -> 根据反馈继续循环直到得到完善的需求说明、设计说明和程序系统】 -> 编码 -> 输出:软件产品 -> 运行维护

     

    代替全部开发阶段:

    输入:初步需求 -> 【进入原型方法的循环:快速分析需求 -> 快速构造设计说明 -> 快速构造程序系统和软件产品(编码) -> 用户使用(程序系统或软件产品) -> 评价反馈 -> 根据反馈继续循环直到得到完善的需求说明、设计说明和软件产品】 -> 输出:软件产品 -> 运行维护

     

  • 相关阅读:
    不同主机的docker容器互相通信
    Understanding Docker
    Docker入门
    使用Docker在本地搭建Hadoop分布式集群
    Cassandra联手Spark 大数据分析将迎来哪些改变?
    Apache Spark技术实战之6 --Standalone部署模式下的临时文件清理
    大数据计算平台Spark内核全面解读
    Ubuntu下导入PySpark到Shell和Pycharm中(未整理)
    别老扯什么hadoop,你的数据根本不够大
    spark on yarn 集群部署
  • 原文地址:https://www.cnblogs.com/JerryChan31/p/8622972.html
Copyright © 2020-2023  润新知