淘先锋技术网

首页 1 2 3 4 5 6 7
  • Cenntos7配置静态ip地址

    1、配置虚拟机的ip

  • 机器学习概念 — 监督学习、无监督学习、半监督学习、强化学习、欠拟合、过拟合、后向传播、损失和优化函数、计算图、正向传播、反向传播

    1. 监督学习和无监督学习 监督学习 ( Supervised Learning ) 和无监督学习 ( Unsupervised Learning ) 是在机器学习中经常被提及的两个重要的学习方法。 假如有一堆由苹果和梨混在一起组成的水果,需要设计一个机器对这堆水果按苹果和梨分类,但是这个机器现在并不知道苹果和梨是什么样的,所以我们首先要拿一堆苹果和梨的照片,告诉机器苹果和梨分别长什么样;经过多轮训练后,机器已经能够准确地对照片中的水果类别做出判断,并且对苹果和梨的特征形成自

  • Java时间和时间戳的相互转换

    /* * 将时间转换为时间戳 */ public static String dateToStamp(String s) throws ParseException{ String res; SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss"); Date date = simpleDateFormat.parse(s);

  • 揭秘 BPF map 前生今世

    1. 前言 众所周知,map 可用于内核 BPF 程序和用户应用程序之间实现双向的数据交换, 为 BPF 技术中的重要基础数据结构。 在 BPF 程序中可以通过声明 struct bpf_map_def 结构完成创建,这其实带给我们一种错觉,感觉这和普通的 C 语言变量没有区别,然而事实真的是这样的吗?事情远没有这么简单,读完本文以后相信你会有更大的惊喜。 struct bp

  • 1.搭建开发环境——Python

    阅读目录:   1.背景介绍   2.搭建开发环境——python实战: WebAPP 开发 Day01     2.1 搭建开发环境     2.2 设置项目结构     2.3 开发工具   1.背景介绍 Python 的功能十分强大,因其强大而丰富的开源包,让其可以实现高级爬虫,可以实现机器学习算法,可以应用到深度学习中,也可以开发Web App 项目。

  • 关于 HibernateOptimisticLockingFailureException: Row was updated or deleted by another transaction 的问题

    异常 一个在线系统报告下面的异常: 2020-07-29 15

  • Ubuntu16.04安装显卡驱动以及Cuda

    **Ubuntu16.04安装显卡驱动以及Cuda** 安装显卡驱动有两种方式 一、N卡驱动 1.安装驱动装备工作 ubuntu自带的nouveau驱动会影响cuda安装,不当操作会导致黑屏和登陆循环。终端运行 (1) 终端输入:lsmod | grep nouveau (2)若有输出,则 cd /etc/modprobe.d sudo touch blacklist-nouveau.conf sudo gedit blacklist-n

  • os.system 获取打印值_vim技巧:查看某个配置项的值、以及它被哪个文件所设置...

    下面介绍 vim 配置项相关的一些使用技巧,包括: 查看某个配置项当前值是什么查看

  • tomcat 7 到tomcat8 乱码问题

    tomcat8自动处理了get 请求的乱码,默认为UTF-8, 而tomcat7默认为iso-8859-1   解决方法很简单: 修改tomcat下的conf/server.xml文件,找到如下代码:<Connector port="80" maxHttpHeaderSize="

  • VS Win32桌面程序下 const wchar* (const char*) 与 LPCSTR(LPCWSTR) 类型不兼容

    在项目属性->配置属性->高级中 右侧栏的字符集设置为 “Unicode字符集”,然后应用,确定。 项目中所有的字符串常量添加前缀 “L”。 注意:即

  • 使用anaconda安装tensorflow部分问题及解决方案

    文章目录 安装概述遇到的问题汇总 安装概述

  • java实现提交文件至github_如何使用Git命令将代码上传到GitHub

    1、 首先在我们的计算机上创建文件夹:例如取名:test 2、 进入test文件夹后点击鼠标右键,选择打开Git Bash.

  • Java时间和时间戳的相互转换

    时间转换为时间戳: /* * 将时间转换为时间戳 */ public static String dateToStamp(String s) throws ParseExcept

  • Java时间和时间戳的相互转换

    时间转换为时间戳: /* * 将时间转换为时间戳 */ public static String dateToStamp(String s) throws ParseEx

  • iOS时间与时间戳相互转换

    设置时间显示格式:       NSString* timeStr = @"2011-01-26 17:40:50";       NSDateFormatter *formatter = [[[N

  • iolink单片机_基于IO-Link接口的温湿度传感器设计

    基于 IO-Link 接口的温湿度传感器设计 石 磊 1,2, 孙凯明 1,2, 王 刚 2 【摘 要】 摘 要 : 简述具有能与 IO-Link 主机通讯的 IO-Link 接口的温度和湿度 传感器的设计,并描述了基于 IO-Link 协议和物理接口的硬件

  • 编译适合CDH6.3.2的spark3.3.2

     版本对应 Spark版本3以上不再支持scala2.11  环境: jdk:1.8.0_181

  • FastAPI第四天---数据库与模块化管理

    文章目录 FastAPI第四天1. 多应用程序管理

  • android 读取raw资源,Android-res/raw/assets存放资源的限制和读取方式

    res/raw和assets的相同点 两者目录下的文件在打包后会原封不动的保存在apk包中,不会被编译成二进制文件。res/raw和assets的不同点 1. res/raw中的文件会被映射到R.java文件中,访问的时候直接使用资源ID即R.id.filename;assets文件夹下的文件不会被映射到R.java中,访问的时候需要使用AssetManager类。 2. res/raw文件下不可以新建目录结构,而assets则可以自定义目录结构,也就是assets目录下可以再建立文件夹。读取文件资源 1.读取res/

  • Spark算子-Scala版本 头歌答案

    Spark算子--Scala版本 第1关 Spark算子--Scala版本 编程要求 根据提示,在右侧编辑器begin-end处补充代码,输出每个元素及其长度并去重。 测试说明 平台会对你编写的代码进行测试: 预期输出: (an,2)` `(dog,3)` `(cat,3) 开始你的任务吧,祝你成功! ​

  • Spark大数据处理讲课笔记4.6 Spark SQL数据源 - JDBC

    一、Spark SQL读取关系数据库 Spark SQL还可以使用JDBC API从其他关系型数据库读取数据,返回的结果仍然是一个DataFrame,可以很容易地在Spark SQL中处理,或者与其他数据源进行连接查询。 二、Spark SQL JDBC连接属性 在使用JDBC连接数据库时可以指定相应的连接属性 属性    介绍 url    连接的JDBC URL driver    JDBC驱动的类名 user    数据库用户名 password    数据库密码 dbtable    数据

  • Spark大数据处理讲课笔记1.4 掌握Scala运算符

    零、本节学习目标 理解Scala运算符与方法的等价性 掌握Scala常用运算符 理解Scala运算符种类 一、运算符等价于方法 Scala中运算符即方法、方法即运算符。Scala中运算符其实是普通方法调用的另一种表现形式,运算符的使用其实就是隐含地调用对应的方法。 (一)运算符即方法 op运算符与.op方法调用是等价的,op表示运算符:+、-、*、/…… 演示x + y与x.+(y)的等价性

  • Spark大数据处理讲课笔记3.6 RDD容错机制

    一、RDD容错机制 当Spark集群中的某一个节点由于宕机导致数据丢失,则可以通过Spark中的RDD进行容错恢复已经丢失的数据。RDD提供了两种故障恢复的方式,分别是血统(Lineage)方式和设置检查点(checkpoint)方式。 (一)血统方式 根据RDD之间依赖关系对丢失数据的RDD进行数据恢复。若丢失数据的子RDD进行窄依赖运算,则只需要把丢

  • Spark大数据处理讲课笔记3.4 理解RDD依赖

    一、RDD依赖 在Spark中,对RDD的每一次转化操作都会生成一个新的RDD,由于RDD的懒加载特性,新的RDD会依赖原有RDD,因此RDD之间存在类似流水线的前后依赖关系。这种依赖关系分为两种:窄依赖和宽依赖。

  • Spark大数据处理讲课笔记3.3 掌握RDD分区

    文章目录 零、本讲学习目标 一、RRD分区 (一)RDD分区概念 (二)RDD分区作用 二、RDD分区数量 (一)RDD分区原则 (二)影响分区的因素 (三)使用parallelize()方法创建RDD时的分区数量 1、指定分区数量 2、默认分区数量 3、分区源码分析 (四)RDD分区方式 (五)使用textFile()方法创建RDD时的分区数量 1、指定最小分区数量 2、默认最小分区数量 3、默认实际分区数量 三、S

  • Spark大数据处理讲课笔记4.5 Spark SQL数据源 - Hive表

    一、Spark SQL支持读写Hive Spark SQL还支持读取和写入存储在Apache Hive中的数据。然而,由于Hive有大量依赖项,这些依赖项不包括在默认的Spark发行版中,如果在classpath上配置了这些Hive依赖项,Spark就会自动加载它们。需要注意的是,这些Hive依赖项必须出现在所有Worker节点上,因为它们需要访问Hive序列化和反序列化库(SerDes),以便访问存储在Hive中的数据。 在使用Hive时,必须实例化一个支持Hive的SparkSession对象。若系统中没有部署Hive,则仍然可以启用Hive支持(Spark S

  • hive 和 spark

    Hive是一个开源的数据仓库系统,旨在简化大数据的管理和分析。它使用类似于SQL的查询语言,称为HiveQL,可以用来查询、转换和管理大型数据集。Hive通常与Hadoop(一个分布式存储和计算框架)结合使用,但它也可以使用其他存储技术,如Amazon S3。 Spark是一个开源的大数据处理引擎,可以用于计算、存储和分析大量数据。它提供了许多有用的工具和功能,如Spark SQL、Spark Streaming、MLlib(机器学习库)和GraphX(图形处理

  • spark filter过滤某个字段在几个值里面_Spark基础:读写JDBC

    Spark SQL支持通过JDBC直接读取数据库中的数据,这个特性是基于JdbcRDD实现。返回值作为DataFrame返回,这样可以直接使用Sp

  • TypeScript快速入门

    第一章 快速入门 0、TypeScript简介 TypeScript是JavaScript的超集。它对JS进行了扩展,向JS中引入了类型的概念,并添加了许多新的特性。TS代码需要通过编译器编译为JS,然后再交由JS解析器执行。TS完全兼容JS,换言之,任何的JS代码都可以直接当成JS使用。相较于JS而言,TS拥有了静态类型,更加严格的语法,更强大的功能;TS可以在代码执行前就完成代码的检查,减小了运

  • Spark相关配置参数

    一、任务占用资源计算 executor占用CPU = executor_instances * executor_cores * 10 * 0.8(0.1核) executor占用内存 = executor_instances * (executor.memory + max(executor.memoryOverhead, OffHeap.size) + executor.pyspark.memory)(GB) 其中

  • 搭建Spark on Yarn集群碰到的那些坑

    说在前面 最近因为项目需要,处理的数据集变大了,用单机处理起来比较费劲,虽然也能得到结果,但是总觉得应该尝试一下新技术。说新技术,其实也不新了。第一次在公众号上写文章,先极简地自我介绍一下。我叫哈明,这是我用了好几年的微信昵称,就不取别的名字了,简单点。 写这篇文章的目的是为了记录一下自己最近在搭建Spark集群中的点点滴滴,那些莫名其妙的坑。我在想设计者是不是在故意抬高使用门槛,还是说这玩意就得这么设计,没别的法。我去年研究了一段时间Flink,我用Flink主要是来做设备状态监测用的,也发了几篇没啥用的论文,申请了2项专利,1项已经授权了,就觉得它有

  • 大数据课程K1——Spark概述

    文章作者邮箱:[email protected]              地址:广东惠州  ▲ 本章节目的 ⚪ 了解Spark的背景; ⚪ 了解Spark的特点;

  • Yarn-Cluster模式下Spark程序执行大解密(一)

    01 导读 在这一系列的文章中我将带大家探寻在Yarn-Cluster模式下,Spark程序是怎么执行的。文章将分为多篇,根据个人时间安排来写后续篇幅。在第一篇,我主要讲整体流程和提交程序。Spark框架自身是带有资源调度功能的,采用的是经典的Master-Slaves架构,包括负责资源分配和调度的Master和具体执行处理和计算进程的Slave。 资源调度不是Spark框架的强项,在实际工作中,Yarn作为Hadoop框架的组件,经常用来做集群资源管理,Spark源码中有

  • Hive On Spark性能调优

    一、基础配置 我们公司yarn node节点的可用资源配置为:单台node节点可用资源数:核数33cores、内存110G。Hive on Spark任务的基础配置,主要配置对象包括:Executor和Driver内存,Executor配额,任务并行度。

  • Elasticsearch 集成---Spark Streaming 框架集成

    一.Spark Streaming 框架介绍 Spark Streaming 是 Spark core API 的扩展,支持实时数据流的处理,并且具有可扩展, 高吞吐量,容错的特点。 数据可以从许多来源获取,如 Ka

  • Spark1.4.1单机版安装配置

    版本信息 scala-2.11.7.tgz jdk-8u65-linux-x64.gz spark-1.4.1-bin-hadoop2.6.tgz IP: 192.168.31.157 查看IP的语法为:[root@localhost java]# ifconfig -a

  • 大数据hudi之集成spark:DeltaStreamer导入工具

    目录 命令说明准备Kafka数据

  • Spark 自动转换BroadcastJoin代码分析

    背景 Spark在判断能否转为BroadCastJoin时主要是根据输入表的大小是否超过了 spark.sql.autoBroadcastJoinThreshold 参数所配置的大小,如果未超过阈值则可以转为BroadCastJoin. 结论 先说下整个判断的流程: 1.首先在非分区表情况下并且 spark.sql.statistics.fallBackToHdfs此参数开启时会统计表hdfs目录大小 2.在物理计划生成时会统计输入的大小(cbo开启时统计条数 不开

  • Spark RPC之Dispatcher、Inbox、Outbox

    概要 Dispatcher、Inbox、Outbox完成了Spark RPC底层对请求消息的分发及处理流程,Dispatcher和Inbox作用于server端,处理请求,Outbox作用于client端,处理和远端netty server通信的情况。 Dispatcher、Inbox Dispatch

  • Spark SQL与hive hbase mysql集成

    虚拟机环境:centos7 一、Spark SQL 与Hive集成(spark-shell) 1.需要配置的项目     1)将hive的配置文件hive-site.xml拷贝到spark conf目录,同时添加metastore的url配置。         执行操作: vi hive-site.xml,添加如下内容: <property>     <name>hive.metastore.uris</name>     <value>thrift

  • 大数据hudi之集成spark:常规调优

    目录 并行度Off-heap(堆外)内存

  • TypeScript入门

    类型系统 类型安全 强类型:语言层面限制函数的实参类型必须与形参类型相同;

  • typescript入门

    js是动态类型的,ts是静态类型的。在大型项目中,变量没有类型,若出现bug很难去查找错误,变得很难维护。因此,ts语言越来越受前端程序员的欢迎。 1.类型声明 类型声明是TS非常重要的一个特点通过类型声明可以指定TS中变量 (参数、形参) 的类型指定类型后,当为变量赋值时,TS编译器会自动检查值是否符合类型声明,符合则赋值,否则报错。简而言之,类型声明给变是设置了类型,使得变量只能存储某种类型的值 语法:

  • 大数据hudi之集成spark:并发控制

    目录 Hudi支持的并发控制使用并发写方式

  • linux 启动spark-shell,本地启动spark-shell

    由于spark-1.3作为一个里程碑式的发布, 加入众多的功能特性,所以,有必要好好的研究一把,spark-1.3需要scala-2.10.x的版本支持,而系统上默认的scala的版本为2.9,需要进行升级, 可以参考Ubuntu 安装 2.10.x版本的scala,见 http://www.linuxidc.com/Linux/2015-04/116455.htm . 配置好scala的环境后,下载spark的cdh版本, 点我下载. 下载好后,直接解压,然后在bin目录直接运行./spark-shell 即可:

  • Spark大数据分析与实战笔记(第一章 Scala语言基础-1)

    文章目录 章节概要1.1 初识Scala

  • 25. Spark Sql求出每一周的周一和周日

    25. Spark Sql求出每一周的周一和周日 当看到这个需求时,很自然的想到用 date_sub或date_add函数,但参考官方文档的函数说明,发现其用法跟关心型数据库sql语法不太一致,需要做一些转换才可以达到想要的效果。

  • 大数据技术生态中,Hadoop、Hive、Spark是什么关系?

    大数据技术生态中,Hadoop、Hive、Spark的关系 引言 在大数据技术生态中,Hadoop、Hive、Spark是三个相关的系统和技术。大数据属于数据管理系统的范畴,数据管理系统主要解决两个问题:数据存储和数据计算。 单机数据管理系统时代 在单机数据管理系统时代,所有的数据都可以存储在一台服务器上,并且计算任务也没有遇到瓶颈。数据处理任务主要是I/O密集型,而不是CPU密集型,因此并没有涉及到分布式系统的概念。

  • spark的eventLog日志分析

    查找满足指定条件的app_id查询条件: 表名、时间、节点名时间限定: 最好适当放大, 不知道什么原因有点不准eventLog的存放路径: spark.history.fs.logDirectory 1. spark-sql  先限定时间段;数据是逐行读入的, 但 app_id要按整个文件过滤, 按每个条件打标;按ap

  • TypeScript 入门教程

    简介 1. Typed JavaScript at Any Scale. 添加了类型系统的 JavaScript,适用于任何规模的项目。 2.TypeScript 是静态类型:类型系统按照「类型检查的时机」来分类,分为动态类型和静态类型。 动态类型是指在运行时才会进行类型检查,这种语言的类型错误往往会导致运行时错误。JavaScript 是一门解释型语言,没有编译阶段,所以它是动态类型 静态类型是指编译阶段就能确定每个变量的类型,这种语言的类型错误往往会导致语法错误。TypeScript