博客
关于我
B. Omkar and Infinity Clock
阅读量:150 次
发布时间:2019-02-27

本文共 1665 字,大约阅读时间需要 5 分钟。

为了解决这个问题,我们需要对给定的数组进行k次操作,每次操作包括将数组中的每个元素替换为当前最大值减去该元素。通过分析,我们发现数组会在两次操作后进入一个循环模式,因此我们可以利用这一特性来优化计算过程。

方法思路

  • 第一次操作:计算数组的最大值d,然后将每个元素替换为d减去该元素,得到新数组b。
  • 第二次操作:计算数组的最大值d,再次将每个元素替换为d减去该元素,得到新数组c。
  • 比较数组:检查数组b和c是否相同。如果相同,无论k的值如何,结果都是c。否则,根据k的奇偶性决定最终的数组状态:如果k是奇数,结果为b;如果是偶数,结果为c。
  • 这种方法避免了在k次操作中重复计算,能够在O(n)时间内解决问题,适用于大范围的n和k。

    解决代码

    #include 
    using namespace std;int main() { int t; cin >> t; for (int test_case = 0; test_case < t; ++test_case) { int n, k; cin >> n >> k; ll a[n]; for (int i = 0; i < n; ++i) { cin >> a[i]; } // 第一次操作得到数组b ll d = max(a); ll b[n]; for (int i = 0; i < n; ++i) { b[i] = d - a[i]; } // 第二次操作得到数组c ll d2 = max(b); ll c[n]; for (int i = 0; i < n; ++i) { c[i] = d2 - b[i]; } // 判断b和c是否相同 bool isSame = true; for (int i = 0; i < n; ++i) { if (b[i] != c[i]) { isSame = false; break; } } if (isSame) { for (int i = 0; i < n; ++i) { cout << c[i] << " "; } } else { if (k % 2 == 1) { for (int i = 0; i < n; ++i) { cout << b[i] << " "; } } else { for (int i = 0; i < n; ++i) { cout << c[i] << " "; } } } cout << endl; }}

    代码解释

  • 读取输入:读取测试用例的数量t,然后逐个处理每个测试用例。
  • 第一次操作:计算数组的最大值d,然后生成数组b。
  • 第二次操作:计算数组b的最大值d2,生成数组c。
  • 比较数组:检查b和c是否相同。如果相同,输出c;否则,根据k的奇偶性输出b或c。
  • 输出结果:根据判断结果输出最终数组。
  • 这种方法确保了在处理大范围数据时的效率和正确性。

    转载地址:http://ulib.baihongyu.com/

    你可能感兴趣的文章
    Nginx配置限流,技能拉满!
    查看>>
    Nginx配置静态代理/静态资源映射时root与alias的区别,带前缀映射用alias
    查看>>
    Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
    查看>>
    Nginx:NginxConfig可视化配置工具安装
    查看>>
    ngModelController
    查看>>
    ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
    查看>>
    ngrok内网穿透可以实现资源共享吗?快解析更加简洁
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>