• [SCOI2008]奖励关(期望dp)


    你正在玩你最喜欢的电子游戏,并且刚刚进入一个奖励关。在这个奖励关里,系统将依次随机抛出k次宝物,每次你都可以选择吃或者不吃(必须在抛出下一个宝物之前做出选择,且现在决定不吃的宝物以后也不能再吃)。

    宝物一共有n种,系统每次抛出这n种宝物的概率都相同且相互独立。也就是说,即使前k-1 次系统都抛出宝物1(这种情况是有可能出现的,尽管概率非常小),第k次抛出各个宝物的概率依然均为1/n。

    获取第 i 种宝物将得到Pi分,但并不是每种宝物都是可以随意获取的。第i种宝物有一个前提宝物集合Si。只有当Si中所有宝物都至少吃过一次,才能吃第i 种宝物(如果系统抛出了一个目前不能吃的宝物,相当于白白的损失了一次机会)。注意,Pi 可以是负数,但如果它是很多高分宝物的前提,损失短期利益而吃掉这个负分宝物将获得更大的长期利益。

    假设你采取最优策略,平均情况你一共能在奖励关得到多少分值?

    Solution

    注意到这题数据范围不大,我们可以放开了设计状态,设dp[i][j]表示正在进行第i轮掉落,目前的已拥有集合为j。

    期望dp,要倒退,一个状态的期望等于他能转移的n个状态的期望平均值。

    转移:枚举i和j,枚举下一个要掉落的物品

    if((j&ji[l])==ji[l]) dp[i][j]+=max(dp[i-1][j],dp[i-1][j|(1<<l)]+(double)p[l]);

    else dp[i][j]+=dp[i-1][j];

    注意到当我能选择时会有两种决策,我只会取最大的。

    最后状态要除以n。

    Code

    #include<iostream>
    #include<cstdio>
    #include<cstring>
    using namespace std;
    int k,n,p[20],x,tag,ji[1<<15];
    double dp[102][1<<15];
    double ans,num;
    int main()
    {
        scanf("%d%d",&k,&n);
        for(int i=0;i<n;++i)
        {
            scanf("%d",&p[i]);
            while(1)
            {
                scanf("%d",&x);
                if(!x)break;
                ji[i]|=(1<<(x-1));
            }
        }
        int ma=(1<<n)-1;
        for(int i=1;i<=k;++i)
            for(int j=0;j<=ma;++j)
            {
                for(int l=0;l<n;++l)
                   {
                      if((j&ji[l])==ji[l])
                        dp[i][j]+=max(dp[i-1][j],dp[i-1][j|(1<<l)]+(double)p[l]);
                      else dp[i][j]+=dp[i-1][j];
                   }
                dp[i][j]/=(double)n;
            }
            
        
        printf("%.6lf",dp[k][0]);
        return 0;    
    }
  • 相关阅读:
    jQuery中排除指定元素,同时选择剩下的所有元素
    Silverlight Telerik控件学习:弹出窗口RadWindow
    biztalk 2010 dev版安装小记
    Flex4中的ModuleLoader,Alert以及TitleWindow
    Silverlight Telerik控件学习:主题Theme切换
    用Flex模拟智能手机表单输入的自动放大功能
    "为帮助内容存储区指定的位置无效或者您无权访问该位置"解决方法
    Flex4中使用WCF
    Silverlight单元测试
    Silverlight:纠结的快捷键问题
  • 原文地址:https://www.cnblogs.com/ZH-comld/p/9558041.html
Copyright © 2020-2023  润新知