Monitoring(监控)

2023-10-27

Monitoring and Instrumentation

有几种方法可以监控Spark应用程序:Web UI,指标和外部检测。

Web Interfaces

默认情况下,每个SparkContext都会在端口4040上启动Web UI,以显示有关应用程序的有用信息。 这包括:

  • 调度程序阶段和任务的列表
  • RDD大小和内存使用情况的摘要
  • 环境信息
  • 有关运行执行程序的信息

请注意,此信息仅在应用程序的默认时间内可用。 要在事后查看Web UI,请在启动应用程序之前将spark.eventLog.enabled设置为true。 这会将Spark配置为记录Spark事件,该事件将UI中显示的信息编码为持久存储。

Viewing After the Fact(事后观察)

如果应用程序的事件日志存在,仍然可以通过Spark的历史服务器构建应用程序的UI。 您可以通过执行以下命令启动历史记录服

./sbin/start-history-server.sh

这默认情况下在http:// :18080创建一个Web界面,列出未完成和已完成的应用程序和尝试。

使用文件系统提供程序类时(请参阅下面的spark.history.provider),必须在spark.history.fs.logDirectory配置选项中提供基本日志记录目录,并且应包含每个代表应用程序事件日志的子目录。

必须将spark作业本身配置为记录事件,并将它们记录到同一个共享的可写目录中。 例如,如果服务器配置了hdfs:// namenode / shared / spark-logs的日志目录,那么客户端选项将是:

spark.eventLog.enabled true
spark.eventLog.dir hdfs://namenode/shared/spark-logs

历史服务器可以配置如下:

Environment Variables

Environment Variable Meaning
SPARK_DAEMON_MEMORY 要分配给历史服务器的内存(默认值:1g)。
SPARK_DAEMON_JAVA_OPTS 历史服务器的JVM选项(默认值:none)。
SPARK_DAEMON_CLASSPATH 历史服务器的类路径(默认值:none)。
SPARK_PUBLIC_DNS 历史服务器的公共地址。 如果未设置此选项,则指向应用程序历史记录的链接可能会使用服务器的内部地址,从而导致链接断开(默认值:none)。
SPARK_HISTORY_OPTS spark.history。*历史服务器的配置选项(默认值:none)。

Spark configuration options

Property Name Default Meaning
spark.history.provider org.apache.spark.deploy.history.FsHistoryProvider 实现应用程序历史后端的类的名称。 目前,Spark只提供了一个实现,用于查找存储在文件系统中的应用程序日志。
spark.history.fs.logDirectory file:/tmp/spark-events 对于文件系统历史记录提供程序,包含要加载的应用程序事件日志的目录的URL。 这可以是本地file://路径,HDFS路径hdfs:// namenode / shared / spark-logs或Hadoop API支持的备用文件系统。
spark.history.fs.update.interval 10s 文件系统历史记录提供程序检查日志目录中的新日志或更新日志的时间段。 较短的间隔可以更快地检测新应用程序,代价是更多服务器负载重新读取更新的应用程序。 更新完成后,已完成和未完成的应用程序列表将反映更改。
spark.history.retainedApplications 50 保留缓存中UI数据的应用程序数。 如果超过此上限,则将从缓存中删除最旧的应用程序。 如果应用程序不在缓存中,则必须从磁盘加载它(如果从UI访问)。
spark.history.ui.maxApplications Int.MaxValue 要在历史摘要页面上显示的应用程序数。 即使应用程序UI未显示在历史摘要页面上,它们仍然可以直接访问其URL。
spark.history.ui.port 18080 历史服务器的Web界面绑定的端口。
spark.history.kerberos.enabled false 指示历史记录服务器是否应使用kerberos登录。 如果历史记录服务器正在访问安全Hadoop集群上的HDFS文件,那么这是必需的。 如果这是真的,它使用配置spark.history.kerberos.principal和spark.history.kerberos.keytab。
spark.history.kerberos.principal (none) 历史服务器的Kerberos主体名称。
spark.history.kerberos.keytab (none) 历史记录服务器的kerberos密钥表文件的位置。
spark.history.ui.acls.enable false 指定是否应检查acls以授权查看应用程序的用户。 如果启用,则无论应用程序运行时单个应用程序为spark.ui.acls.enable设置了什么,都会进行访问控制检查。 应用程序所有者将始终有权查看自己的应用程序,并且运行应用程序时通过spark.ui.view.acls.groups指定的spark.ui.view.acls和组指定的任何用户也将有权查看该应用程序。 如果禁用,则不进行访问控制检查。
spark.history.ui.admin.acls empty 逗号分隔的用户/管理员列表,具有对历史服务器中所有Spark应用程序的查看访问权限。 默认情况下,只允许在运行时查看应用程序的用户可以访问相关的应用程序历史记录,配置的用户/管理员也可以拥有访问它的权限。 在列表中加上“*”表示任何用户都可以拥有admin权限。
spark.history.ui.admin.acls.groups empty 逗号分隔的组列表,具有对历史服务器中所有Spark应用程序的查看访问权限。 默认情况下,只允许在运行时查看应用程序的组可以访问相关的应用程序历史记录,配置的组也可以拥有访问它的权限。 在列表中加上“*”表示任何组都可以拥有admin的权限。
spark.history.fs.cleaner.enabled false 指定历史记录服务器是否应定期清理存储中的事件日志。
spark.history.fs.cleaner.interval 1d 文件系统作业历史记录清理程序检查要删除的文件的频率。 仅当文件早于spark.history.fs.cleaner.maxAge时才会删除文件
spark.history.fs.cleaner.maxAge 7d 文件系统历史记录清理程序运行时,将删除早于此的作业历史记录文件。
spark.history.fs.numReplayThreads 25% of available cores 历史记录服务器用于处理事件日志的线程数。
spark.history.store.path (none) 本地目录缓存应用程序历史数据的位置。 如果设置,则历史服务器将应用程序数据存储在磁盘上,而不是将其保留在内存中。 写入磁盘的数据将在历史服务器重新启动时重复使用。

请注意,在所有这些中,表通过单击其标题进行排序,从而可以轻松识别缓慢的任务,数据倾斜等。
笔记:

  1. 历史记录服务器显示已完成和未完成的Spark作业。 如果应用程序在失败后进行多次尝试,则将显示失败的尝试,以及任何正在进行的未完成尝试或最终成功尝试。
  2. 不完整的应用程序仅间歇性更新。 更新之间的时间由检查更改文件(spark.history.fs.update.interval)之间的间隔定义。 在较大的集群上,可以将更新间隔设置为较大的值。 查看正在运行的应用程序的方法实际上是查看自己的Web UI。
  3. 退出但未将自己注册为已完成的应用程序将被列为不完整 - 尽管它们不再运行。 如果应用程序崩溃,可能会发生这种情况。
  4. 发出Spark作业完成信号的一种方法是显式停止Spark上下文(sc.stop()),或者使用with SparkContext()作为sc:construct来处理Spark上下文设置和拆除。

REST API

除了在UI中查看指标外,它们还可以作为JSON使用。 这为开发人员提供了一种为Spark创建新的可视化和监视工具的简便方法。 JSON既可用于正在运行的应用程序,也可用于历史记录服务器。 端点安装在/ api / v1。 例如,对于历史服务器,它们通常可以在http:// :18080 / api / v1访问,对于正在运行的应用程序,可以在http:// localhost:4040 / api / v1访问。

在API中,应用程序由其应用程序ID [app-id]引用。 在YARN上运行时,每个应用程序可能有多次尝试,但是只有集群模式下的应用程序才有尝试ID,而不是客户端模式下的应用程序。 可以通过[attempt-id]来识别YARN群集模式中的应用程序。 在下面列出的API中,当在YARN群集模式下运行时,[app-id]实际上是[base-app-id] / [attempt-id],其中[base-app-id]是YARN应用程序ID。

Endpoint Meaning
/applications A list of all applications.?status=[completed|running] list only applications in the chosen state. ?minDate=[date] earliest start date/time to list. ?maxDate=[date] latest start date/time to list. ?minEndDate=[date] earliest end date/time to list. ?maxEndDate=[date] latest end date/time to list. ?limit=[limit] limits the number of applications listed. Examples: ?minDate=2015-02-10 ?minDate=2015-02-03T16:42:40.000GMT ?maxDate=2015-02-11T20:41:30.000GMT ?minEndDate=2015-02-12 ?minEndDate=2015-02-12T09:15:10.000GMT ?maxEndDate=2015-02-14T16:30:45.000GMT ?limit=10
/applications/[app-id]/jobs A list of all jobs for a given application. ?status=[running|succeeded|failed|unknown] list only jobs in the specific state.
/applications/[app-id]/jobs/[job-id] Details for the given job.
/applications/[app-id]/stages A list of all stages for a given application. status=[active|complete|pending|failed] list only stages in the state.
/applications/[app-id]/stages/[stage-id] A list of all attempts for the given stage.
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id] Details for the given stage attempt.
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskSummary Summary metrics of all tasks in the given stage attempt. ?quantiles summarize the metrics with the given quantiles. Example: ?quantiles=0.01,0.5,0.99
/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskList A list of all tasks for the given stage attempt. ?offset=[offset]&length=[len] list tasks in the given range. ?sortBy=[runtime|-runtime] sort the tasks. Example: ?offset=10&length=50&sortBy=runtime
/applications/[app-id]/executors A list of all active executors for the given application.
/applications/[app-id]/allexecutors A list of all(active and dead) executors for the given application.
/applications/[app-id]/storage/rdd A list of stored RDDs for the given application.
/applications/[app-id]/storage/rdd/[rdd-id] Details for the storage status of a given RDD.
/applications/[base-app-id]/logs Download the event logs for all attempts of the given application as files within a zip file.
/applications/[base-app-id]/[attempt-id]/logs Download the event logs for a specific application attempt as a zip file.
/applications/[app-id]/streaming/statistics Statistics for the streaming context.
/applications/[app-id]/streaming/receivers A list of all streaming receivers.
/applications/[app-id]/streaming/receivers/[stream-id] Details of the given receiver.
/applications/[app-id]/streaming/batches A list of all retained batches.
/applications/[app-id]/streaming/batches/[batch-id] Details of the given batch.
/applications/[app-id]/streaming/batches/[batch-id]/operations A list of all output operations of the given batch.
/applications/[app-id]/streaming/batches/[batch-id]/operations/[outputOp-id] Details of the given operation and given batch.
/applications/[app-id]/environment Environment details of the given application.
/version Get the current spark version.

可以检索的作业和阶段的数量受独立Spark UI的相同保留机制的限制; “spark.ui.retainedJobs”定义触发作业垃圾收集的阈值,以及阶段的spark.ui.retainedStages。 请注意,垃圾回收在回放时发生:可以通过增加这些值并重新启动历史记录服务器来检索更多条目。

API Versioning Policy
这些端点经过了强大的版本控制,可以更轻松地开发应用程序。 特别是,Spark保证:

  • 永远不会从一个版本中删除端点
  • 对于任何给定的端点,永远不会删除单个字段
  • 可以添加新的端点
  • 可以将新字段添加到现有端点
  • 可以在将来添加新版本的api作为单独的端点(例如,api / v2)。 新版本不需要向后兼容。
  • Api版本可能会被删除,但只有在至少一个与新api版本共存的次要版本之后。

请注意,即使在检查正在运行的应用程序的UI时,仍然需要applications / [app-id]部分,尽管只有一个应用程序可用。 例如。 要查看正在运行的应用程序的作业列表,您可以访问http:// localhost:4040 / api / v1 / applications / [app-id] / jobs。 这是为了在两种模式下保持路径一致。

Metrics(度量)

Spark有一个基于Dropwizard指标库的可配置指标系统。这允许用户将Spark指标报告给各种接收器,包括HTTP,JMX和CSV文件。度量系统是通过Spark期望出现在$ SPARK_HOME / conf / metrics.properties中的配置文件配置的。可以通过spark.metrics.conf配置属性指定自定义文件位置。默认情况下,用于驱动程序或执行程序度量标准的根命名空间是spark.app.id的值。但是,用户通常希望能够跟踪应用程序中驱动程序和执行程序的度量标准,这很难用于应用程序ID(即spark.app.id),因为它随应用程序的每次调用而变化。对于此类用例,可以使用spark.metrics.namespace配置属性为度量报告指定自定义命名空间。例如,如果用户想要将metrics命名空间设置为应用程序的名称,则可spark.metrics.namespace属性设置为类似$ {spark.app.name}的值。然后,Spark会适当地扩展此值,并将其用作度量系统的根命名空间。非驱动程序和执行程序指标永远不会以spark.app.id作为前缀,spark.metrics.namespace属性也不会对此类指标产生任何影响。

Spark的度量标准分离到与Spark组件对应的不同实例中。 在每个实例中,您可以配置一组报告度量标准的接收器。 目前支持以下实例:

  • master: The Spark standalone master process.
  • applications: A component within the master which reports on various applications.
  • worker: A Spark standalone worker process.
  • executor: A Spark executor.
  • driver: The Spark driver process (the process in which your SparkContext is created).
  • shuffleService: The Spark shuffle service

每个实例都可以向零个或多个接收器报告。 接收器包含在org.apache.spark.metrics.sink包中:

  • ConsoleSink:将指标信息记录到控制台。
  • CSVSink:定期将指标数据导出为CSV文件。
  • JmxSink:注册要在JMX控制台中查看的度量标准。
  • MetricsServlet:在现有Spark UI中添加servlet,以将度量数据作为JSON数据提供。
  • GraphiteSink:将指标发送到Graphite节点。
  • Slf4jSink:将指标发送到slf4j作为日志条目。
  • StatsdSink:将指标发送到StatsD节点。

Spark还支持Ganglia接收器,由于许可限制,该接收器未包含在默认构建中:

  • GangliaSink: Sends metrics to a Ganglia node or multicast group.

要安装GangliaSink,您需要执行Spark的自定义构建。 请注意,通过嵌入此库,您将在Spark包中包含LGPL许可的代码。 对于sbt用户,请在构建之前设置SPARK_GANGLIA_LGPL环境变量。 对于Maven用户,请启用-Pspark-ganglia-lgpl配置文件。 除了修改集群的Spark构建之外,用户应用程序还需要链接到spark-ganglia-lgpl工件。

度量配置文件的语法在示例配置文件$ SPARK_HOME / conf / metrics.properties.template中定义。


Advanced Instrumentation(高级仪器)

可以使用几个外部工具来帮助分析Spark作业的性能:

  • 群集范围的监视工具(如Ganglia)可以提供对整体群集利用率和资源瓶颈的深入了解。 例如,Ganglia仪表板可以快速显示特定工作负载是磁盘绑定,网络绑定还是CPU绑定。
  • 操作系统分析工具(如dstat,iostat和iotop)可以在各个节点上提供细粒度的分析。
  • JVM实用程序(如jstack用于提供堆栈跟踪,jstat用于创建堆转储),jstat用于报告时间序列统计信息,jconsole用于可视化地探索各种JVM属性,对于那些熟悉JVM内部的人来说非常有用。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Monitoring(监控) 的相关文章

  • 前端vue经典面试题78道(重点详细简洁)

    目录 1 自我介绍 2 vue面试题 1 v show和v if区别的区别 2 为何v for要用key 3 描述vue组件声明周期mm 单组件声明周期图 父子组件生命周期图 4 vue组件如何通信 5 描述组件渲染和更新的过程 1 vue
  • Go语言学习16-特殊流程控制

    特殊流程控制 引言 特殊流程控制 1 defer语句 2 异常处理 2 1 error 2 2 panic 2 3 recover 结语 引言 上一篇博文介绍了 Go 语言的基本流程控制 本篇我们介绍 Go 语言的特殊流程控制 特殊流程控制
  • 【Java面试题汇总】多线程、JUC、锁篇(2023版)

    导航 黑马Java笔记 踩坑汇总 Java基础 JavaWeb SSM SpringBoot 瑞吉外卖 SpringCloud 黑马旅游 谷粒商城 学成在线 设计模式 牛客面试题 目录 0 请你说说线程和进程的区别 1 请你说说多线程 2
  • VS2010中打开VS2012的项目

    VS2012中对C 的支持度非常好 不管是编写方便程度 不需要插件就能高亮代码及代码自动提示功能 还对MFC的一些功能优化很多 我们可以修改两个工程文件来把VS2012的工程文件一直到VS2010中去 首先当然是修改解决方案文件 sln文件
  • 普通台式机上Tesla M40显卡paddleGPU深度学习柯南的变身器上机体验

    Tesla M40显卡上机体验 废话 正文 改电源线 放入显卡准备散热工具 尝试开机 开装驱动 cuda行列 paddlepaddlegpu版安装 上大佬的柯南变声器代码 本地运行 实测效果 提醒 购机需谨慎 免责声明 总结 改善 引导 废
  • design contains shelved or modified (but not repoured) polygons. the result....继续铺铜还是报警,解决方案如下:

    当AD21中出现 design contains shelved or modified but not repoured polygons the result of drc is not correct recommended to r
  • AAV相关研究最新进展(2023年5月)

    截至2022年11月22日 美国FDA宣布批准uniQure与CSL Behring合作研发的AAV基因疗法Hemgenix AMT 061 CSL222 上市 这是FDA批准的首款治疗血友病B成人患者的基因疗法 同时也是迄今为止第六款上市
  • mybatisplus连接sqlserver配置

    目录 前言 一 所需依赖 二 application yml 三 分页插件 前言 本文主要讲解连接sqlserver的配置 一 所需依赖
  • (一)Unity3D离散仿真引擎基础

    1 解释游戏对象 GameObjects 和资源 Assets 的区别与联系 游戏对象 游戏对象直接出现在游戏场景 scence 中 是资源整合的具体表现 游戏对象一般有玩家 敌人 游戏场景 摄像机等虚拟父类 这些父类没有实例化 而他们的子
  • 多个echarts 设置的graphic相互影响

    使用echarts构建了多个图形 并且能在同一个div中相互切换 其中一个饼状图设置了graphic 其他的没有设置 结果发现设置的echarts的graphic在其他图形上页显示了 如图所示 实际上柱状图是没有设置type为text的gr
  • 浅析MySQL中concat以及group_concat的使用

    吃水不忘挖井人系列 原帖地址 浅析MySQL中concat以及group concat的使用 说明 本文中使用的例子均在下面的数据库表tt2下执行 一 concat 函数 1 功能 将多个字符串连接成一个字符串 2 语法 concat st
  • 论文答辩的二十个问题

    20 defense questions The most common question you may be asked is what you learned from the study you have done You have
  • Java工程师面试必备900+ 道 Java面试题及答案整理(建议收藏)

    很多人都说八股文没用 这里聊一下我对八股文的一些看法吧 一个知识点 你能把使用以及原理说出来 我称之为八股 但是你能把底层关联以及业务使用 优化历程也能搞清楚 我称之为能力 这两点无疑是现在面试都会考察的 按照国内的 IT 求职环境来看 互
  • 11个学习CSS实用工具和资源

    最近业内充斥着关于Sass的文章 教程 甚至在SitePoint这里 我们已经发布比以往更多内容的Sass工具 但是 我们并没有忘记我们的根 CSS 对于那些仍然在学习CSS 或者想要去一点点深入到具体的CSS主题的朋友 我想我会将最近几个
  • 闲鱼项目靠谱吗?小白入坑全指南!

    越来越多的店开始利用互联网来进行自主创业 今天很荣幸的可以为大家分享我自己的创业故事 我是一名汽车维修工人 已经干了有两年多 也晋升到了中工 资薪福利什么的都比较满意 但因为家境不算富裕 加上爸妈身体并不是很好 所以我不得不把自己的全部工资
  • 《Ansible Playbook扩展:任务间流程控制之任务暂停》

    一 wait for模块 wait for是用来在规定时间内检测 状态是否为所期望的状态 才会执行后续的操作 常见使用场景 1 等待直到监听的端口 up 起来 2 等待文件存在或不存在时 再继续执行 3 等待匹配字符串出现在文件中后 再继续
  • I - Tree Gym - 104385I(基础操作性质)

    这题呢 就是知道异或的性质就可以了 一 相同为0 不同为1 即 1 1 0 0 0 0 1 0 1 二 1 交换律 A B B A 2 结合律 A B C A B C 3 自反性 A B B A 由结合律可推 A B B A B B A 0
  • Opencv3.3版本以上使用CNN模型实现年龄和性别检测

    环境 1 安装opencv3 3以上 因为3 3以上才有dnn模块 目前opencv已经更新到opencv4 0 0 alpha 下面网站对更新日志一目了然 https github com opencv opencv wiki Chang
  • vue3.0 + Ts v-model在自定义组件上的使用教程

    前言 之前在vue2 0版本介绍v model在组件上的使用教程时详细介绍了vue3 0 v model相比于2 0的变化 本篇文章主要介绍一下vue3 0的使用教程 如何使用 第一步 index vue作为父组件 这里采用了vant框架
  • Centos7.9 安装Openstack Train版 详细手把手每一步搭建

    1 升级内核 先准备两台机器 我这里准备的是2台 32G 16核 500G硬盘的服务器 一台作为master 一台作为计算节点机器 master 机器有两个网卡 一个是ip 10 10 162 38 另一个网卡和10 10 162 38是同

随机推荐

  • 攻防演练场景中面临的常见加密威胁-SSH隧道工具sish

    工具介绍 sish是一个开源的反向代理工具 通过在公共的端点和本地运行的服务器之间建立一个安全的ssh通道 该工具的功能是将内网端口暴露在公网上 该工具部署在公网中 本地无需安装 无需注册 支持转发的协议有HTTP S WS S TCP 优
  • python中%符号详解

    python中 符号详解 a 星期几的简写 A 星期几的全称 b 月分的简写 B 月份的全称 c 标准的日期的时间串 C 年份的后两位数字 d 十进制表示的每月的第几天 D 月 天 年 e 在两字符域中 十进制表示的每月的第几天 F 年 月
  • Webpack之image

    CSS中的图片处理 直接从外部引入css的背景等图片是打包不出来的 需要用到url loader和file loader file loader 解决引用路径的问题 file loader可以解析项目中的url引入 不仅限于css 根据我们
  • 双指针的实践

    一 双指针的一般解法 双指针指的是在遍历对象的过程中 不是普通的使用单个指针进行访问 而是使用两个相同方向 快慢指针 或者相反方向 对撞指针 的指针进行扫描 从而达到相应的目的 它只是一种算法技巧 二 26题 删除有序数组中的重复项 2 1
  • OpenGL实现通用GPU计算概述

    可能比较早一点做GPU计算的开发人员会对OpenGL做通用GPU计算 随着GPU计算技术的兴起 越来越多的技术出现 比如OpenCL CUDA OpenAcc等 这些都是专门用来做并行计算的标准或者说接口 OpenGL用来做通用GPU计算主
  • Lora模块的定向传输

    原子哥的 两个LORA模块工作在一般模式定向传输数据的测试方法 使用上位机测试 OpenEdv 开源电子网 1 准备两LORA模块和两USB转TTL电路 2 ATK LORA 01配置软件 模块A占用COM10 模块B占用COM22 端口号
  • vue3实现mapbox鼠标定位显示经纬度

    vue3实现鼠标定位显示经纬度 leafletMap on mousemove function e var location leafletMap queryRenderedFeatures e point document getEle
  • c#基础知识---匿名方法

    我们已经提到过 委托是用于引用与其具有相同标签的方法 换句话说 您可以使用委托对象调用可由委托引用的方法 匿名方法 Anonymous methods 提供了一种传递代码块作为委托参数的技术 匿名方法是没有名称只有主体的方法 在匿名方法中您
  • Linux学习笔记——Linux命令行使用技巧

    目录 一 前言 二 Linux是什么 三 关于shell的使用 1 shell命令行提示符 2 shell打开方式 1 右键打开 此方式打开的shell在当前用户的桌面上 2 Application gt System tools gt t
  • Linux系统命令 - 查看内存使用情况

    一 查看内存使用情况 在Linux系统中 大部分操作都通过命令行来完成 因为大部分情况下不开启图形界面 在服务器环境 则只能通过shell执行操作 下面介绍查看内存使用情况的相关命令 包括物理内存 RAM 和交换内存 swap 我们经常需要
  • 前端面试总结之CSS

    文章目录 1 BFC 块级格式化上下文 重点关注 2 CSS盒子模型 3 清除浮动 4 隐藏元素的方法及各自的特点 5 line height和heigh区别 6 用CSS画三角形 7 圣杯布局 三栏布局方式两边固定中间自适应 与双飞翼布局
  • CGAL几何库配置教程

    1 下载源码 进入CGAL官网 下载源码压缩包 GMP库和MPFR库 图1 官方配置教程如图2所示 可供参考 图2 要下载的文件如图3所示
  • 机器学习之决策树

    http t csdn cn 2sWSP决策树 http t csdn cn NdlCs next and iter 函数 http t csdn cn tRN4I sort values and value counts 函数 http
  • Python往excel表格里面插入图片并控制图片的大小

    coding UTF 8 import xlrd import xlwt import requests import json import xlsxwriter from xlutils copy import copy import
  • 【课程设计】数据库:火车票管理系统

    课程设计 数据库 火车票管理系统 摘要 本文主要介绍了火车票管理系统 其中包括其选题功能概述 对该系统的方案方法设计 以及过程实现等内容 由于系统的代码量较大 因此将会较为抽象地对思想进行介绍 在必要时会举出一些实例 还会附上成果展示以及安
  • 线程池创建类ThreadPoolExecutor介绍

    ThreadPoolExecutor 使用给定的初始参数和默认线程工厂和拒绝的执行处理程序创建一个新的线程池执行器 一 构造方法参数说明 有四个构造方法 最终都是调用构造方法四 构造方法参数说明 param corePoolSize 保留在
  • APK反编译

    一 需要的工具 apktool 反编译APK文件 得到classes dex文件 同时也能获取到资源文件以及布局文件 下载地址 dex2jar 将反编译后的classes dex文件转化为 jar文件 下载地址 jd gui 用于查看 ja
  • 嵌入式C语言总结

    GCC知识梳理 Q GCC是什么 GCC最初名称 GNU C Compiler 随着其支持的语言越来越多 改称为 GNU Compiler Collection 作用 将编程高级语言翻译为机器语言 Q C语言变成机器指令的过程 gcc 根据
  • web开发-高德地图api2.0-点聚合-包含设置非聚合点的事件绑定以及样式

    web开发 高德地图api2 0 点聚合 包含设置非聚合点的事件绑定以及样式 下面展示一些 内联代码片 非聚合点数据 lnglat里的坐标不一定要双引号 var points weight 8 lnglat 108 939621 34 34
  • Monitoring(监控)

    Monitoring and Instrumentation 有几种方法可以监控Spark应用程序 Web UI 指标和外部检测 Web Interfaces 默认情况下 每个SparkContext都会在端口4040上启动Web UI 以