- 博客(5)
- 收藏
- 关注
原创 在Anaconda中使用pyspark
如果启动Spark Shell(显示scala>提示),说明Spark安装成功。输入:quit退出。然后在pyspark中配置相关的参数就可以读取redshift中的数据了。然后在pyspark中配置相关的参数就可以读取selectDB中的数据了。然后将下载好的tgz包,解压到自己想要的目录下,并为其添加环境变量。下载,然后将相关jar包放到spark的jars目录下。首先下载jar包,然后放到spark的jars目录下。首先需要下载 JDBC 驱动 从。前置条件 安装有java。
2025-04-21 19:11:24
309
原创 在hive中创建udf函数
首先需要将上述java程序打成jar包,放到hdfs或者云服务器上。注:需要在pom文件中导入对应的依赖。然后在hive中进行注册。
2024-05-09 19:29:11
302
原创 STM32F407学习记录
1、跑马灯实验操作步骤:①建立hardware文件夹,在其中建立led子文件夹,建立led.h、led.c②编写led.h,#ifndef __LED_H#define __LED_H#define LED0 PFout(9)//F9#define LED0 PFout(10)//F10void LED_Init(void); #endif 首先要懂得ifndef define endif这个结构 void LED_Init(void) 是led的初始化函数,在头文件
2020-12-31 20:04:48
627
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人