일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- centos7
- 오라클복구
- tibero
- 카프카
- sql처리순서
- Linux
- Standalone
- sql연산자
- hadoop
- 카프카 사용
- zookeeper
- oracle
- 오라클
- 설치
- initorcl
- 결합연산자
- 실습
- crash recovery
- 완전분산환경
- ORA-01034
- recovery
- window업데이트
- 하둡
- 하둡설치
- 에러
- ORA-27101
- hadoop명령어
- nomount
- 하둡권한변경
- Kafka
- Today
- Total
목록전체 글 (18)
IT 꿈나무의 일상
체크 포인트와 TSN의 사용 목적은 Tibero 인스턴스 종료 시 복구를 수행하기 위해서 입니다. 각각의 내용을 확인하여 보고 Tibero 복구 시 체크포인트와 TSN이 어떤 식으로 동작하는지 알아보도록 하겠습니다. Checkpoint 체크 포인트는 주기적으로 메모리에 변경된 모든 데이터 블록(dirty block)을 데이터 파일에 기록하는 역할을 수행합니다. 체크 포인트가 발생할때마다 컨트롤 파일과 데이터파일 헤더에 체크 포인트 관련 정보를 갱신하게 됩니다. 체크 포인트가 발생하는 시점은 다음과 같습니다. 1. log switch - 사용 중인 log file이 다른 log file로 switch(변경) 되었을 시 체크 포인트가 발생합니다. 2. ALTER SYSTEM CHECHPOINT; - 사용자가..
Tibero의 Boot Mode는 다음과 같습니다 tibero를 구동하기 위해 tbboot 명령어를 수행하면 기본적으로 기동 순서는 다음과 같습니다. NOMOUNT → MOUNT → NORMAL(OPEN) 좀 더 자세하게 살펴보면 아래와 같이 동작합니다. tbboot 수행 [NOMOUNT] license.xml 파일 확인 [MOUNT] tibero.tip 파일 내용 확인 (.bash_profile 파일의 tibero 환경변수 읽어옴) control, log 파일 위치확인 database 정보 확인 (db_name, port) tibero parameter 정보 확인 [MOUNT] control 파일을 읽어서 REDO LOG, DATA FILE 위치 확인 [NORMAL] REDO LOG, DATA FILE..
window 업데이트 후 계속 사용중이던 virtual box 접속시 다음과 같은 에러가 발생하였다. Stderr: VBoxManage.exe: error: Failed to open/create the internal network 'HostInterfaceNetworking-VirtualBox Host-Only Ethernet Adapter #3' (VERR_INTNET_FLT_IF_NOT_FOUND). VBoxManage.exe: error: Failed to attach the network LUN (VERR_INTNET_FLT_IF_NOT_FOUND) VBoxManage.exe: error: Details: code E_FAIL (0x80004005), component ConsoleWrap, ..
## 카프카 설정 시작 ## 9. 카프카 로그 폴더 생성 [kafka@localhost app]$ mkdir -p /home/kafka/app/logs/kafka1 [kafka@localhost app]$ mkdir -p /home/kafka/app/logs/kafka2 [kafka@localhost app]$ mkdir -p /home/kafka/app/logs/kafka3 10. $KAFKA_HOME/config 에서 3개의 server.properties 생성 >> 카프카 환경변수 이미 설정되어 있어야함 (export KAFKA_HOME=/home/kafka/app/kafka) [kafka@localhost ~]$ cd app/kafka/config/ [kafka@localhost config]$ ..
## 카프카를 설치하기 위해서는 Zookeeper를 설치해야 합니다. ## 해당 글은 서버 한대에 zookeeper와 kafka를 모두 실행합니다. 1. 카프카 유저생성 하기 [root@localhost home]# useradd kafka [root@localhost home]# passwd kafka [root@localhost home]# chmod -R 777 /home/kafka 2. 카프카 설치 # app과 data 디렉토리 생성 [kafka@localhost ~]$ mkdir app [kafka@localhost ~]$ mkdir data [kafka@localhost ~]$ ls app data # 카프카 2.12-2.8.0 버전 다운로드 [kafka@localhost ~]$ cd app..
# 서버다운으로 인해 오라클 접속시 다음과 같은 에러가 발생하였다. ERROR: ORA-01034: ORACLE not available ORA-27101: shared memory realm does not exist Linux-x86_64 Error: 2: No such file or directory Additional information: 3701 Additional information: -446465241 Process ID: 0 Session ID: 0 Serial number: 0 오류를 검색하여보니 갑작스러운 종료로 인해 오라클 파라미터 파일이 손상되어 발생하는 현상이였다. 그렇다면 해결책은 파라미터 파일을 재생성해줘야 한다. 1. 해당 경로로 이동 [oracle@localhost ~]..
# 하둡을 설치 하였으니 이번 글은 하둡명령어를 통해 하둡 사용을 해보겠습니다. 1. 파일 목록 조회 : hadoop fs -ls /user/ ls 명령어를 통해 하둡 디렉토리에 존재하는 파일을 확인 할 수 있습니다. [Hadoop@viera ~]$ hdfs dfs -ls / 21/07/02 18:28:31 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Found 5 items drwxrwxr-x - Hadoop supergroup 0 2021-05-26 16:10 /viera drwxrwxr-x - root superg..
# 실습을 위하여 DEPT와 EMP 테이블을 사용하였습니다. 1. JOIN - 오라클에서 조인을 사용하기 위한 조건은 다음과 같습니다. 1) FROM 절에 2개 이상의 테이블 설정 2) 각 테이블은 콤마(,)로 구분 3) SELECT 절의 컬럼 앞에 어느 테이블 컬럼인지 기재 SQL> SELECT EMP.ENAME, EMP.JOB, DEPT.DEPTNO, DEPT.LOC 2 FROM DEPT, EMP 3 WHERE EMP.DEPTNO=DEPT.DEPTNO; ENAME JOB DEPTNO LOC ---------- --------- ---------- ------------- CLARK MANAGER 10 NEW YORK KING PRESIDENT 10 NEW YORK MILLER CLERK 10 NEW ..