博客
关于我
HJ41 称砝码 HJ41 称砝码
阅读量:524 次
发布时间:2019-03-07

本文共 1139 字,大约阅读时间需要 3 分钟。

为了解决这个问题,我们需要计算使用给定的砝码可以称出的物体的不同重量数量。每种砝码有不同的重量和数量,我们需要找到所有可能的总重量。

方法思路

我们可以使用动态规划来解决这个问题。动态规划是一种有效的方法来解决组合问题,尤其是当我们需要计算可以达到的目标值时。

具体步骤如下:

  • 初始化:创建一个布尔数组 dp,其中 dp[i] 表示是否可以通过现有的砝码组合得到重量 i。初始时,dp[0] 被设置为 True,因为我们可以称0重量。
  • 处理每个砝码:对于每个砝码,计算它可以贡献的所有可能的重量,并更新 dp 数组。对于每个砝码的重量和数量,我们从后向前遍历 dp 数组,避免重复计算。
  • 统计结果:遍历 dp 数组,统计所有可以达到的重量数量。
  • 解决代码

    n = int(input())
    m = list(map(int, input().split()))
    x = list(map(int, input().split()))
    max_possible = sum(mi * xi for mi, xi in zip(m, x))
    dp = [False] * (max_possible + 1)
    dp[0] = True
    for i in range(n):
    mi = m[i]
    xi = x[i]
    for k in range(1, xi + 1):
    weight = mi * k
    if weight > max_possible:
    continue
    for j in range(max_possible, weight - 1, -1):
    if dp[j - weight]:
    dp[j] = True
    count = sum(1 for j in range(max_possible + 1) if dp[j])
    print(count)

    代码解释

  • 读取输入:读取砝码的种数 n,每种砝码的重量 m 和数量 x
  • 计算最大可能重量:计算所有砝码的最大可能贡献重量 max_possible
  • 初始化动态规划数组:创建一个大小为 max_possible + 1 的布尔数组 dp,初始时 dp[0]True
  • 处理每个砝码:对于每个砝码,计算其所有可能的贡献重量,并更新 dp 数组。从后向前遍历避免重复计算。
  • 统计结果:遍历 dp 数组,统计所有为 True 的位置,得到可以称出的不同重量数量。
  • 这种方法确保了我们能够高效地计算所有可能的称重结果,并且避免了重复计算,保证了算法的正确性和效率。

    转载地址:http://nwdnz.baihongyu.com/

    你可能感兴趣的文章
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    Nhibernate的第一个实例
    查看>>
    NHibernate示例
    查看>>
    nid修改oracle11gR2数据库名
    查看>>
    NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
    查看>>