메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


<bean id="dataSource" class="org.apache.commons.dbcp.BasicDataSource" destroy-method="close">
<property name="driverClassName" value="${jdbc.driver}" />
<property name="url" value="${jdbc.url}" />
<property name="username" value="${jdbc.username}" />
<property name="password" value="${jdbc.password}" />
<property name="initialSize" value="100" />
<property name="maxActive" value="150" />
<property name="maxWait" value="10000" />
<property name="maxIdle" value="30" />
<property name="minIdle" value="20" />
<property name="testOnBorrow" value="true" />
<property name="testOnReturn" value="true" />
<property name="validationQuery" value="select 1 from dual" />
<property name="testWhileIdle" value="true" />
<property name="timeBetweenEvictionRunsMillis" value="130000" />
<property name="minEvictableIdleTimeMillis" value="120000" />
<property name="numTestsPerEvictionRun" value="20" />
<property name="removeAbandonedTimeout" value="30" />
<property name="removeAbandoned" value="true" />
<property name="logAbandoned" value="false" />
</bean>


정의한 값


 

1. initialSize : 풀의 초기 커넥션 갯수

2. maxActive : 최대 커넥션 갯수
3. maxWait : 커넥션이 존재하지 않을 때, 커넥션을 얻기까지 대기하는 최대 대기시간
4. maxIdle : Idle상태에 풀이 소유한 최대 커넥션 갯수
5. testOnBorrow : 풀에서 커넥션을 가져올시 커넥션의 유효성 검사
6. testOnReturn : 풀에 커넥션을 리턴할 때 커넥션의 유효성 검사
7. validationQuery : validate Query
8. testWhileIdle : Idle상태에 커넥션의 유효성 검사
9. timeBetweenEvictionRunsMillis : 설정된 주기를 통해 Evict(유효하지 않는 커넥션/정의된 시간이 만료된 커넥션을 풀에서 제거) 쓰레드를 수행
10. minEvictableIdleTimeMiilis : Evict 쓰레드를 수행시, 만료여부를 체크할 시간을 정의
11. numTestsPerEvictionRun : Evict 쓰레드를 수행시 수행할 커넥션의 갯수
12. removeAbandonedTimeout : 유효하지 않은 커넥션의 삭제시의 타임아웃
13. removeAbandoned : 유효하지 않는 커넥션의 제거 여부
14. logAbandoned : 유효하지 않는 커넥션을 생성한 코드 위치 로그생성 여부

정의하지 않은 값
1. defaultAutoCommit : 생성된 커넥션의 기본 auto commit 여부
2. defaultReadOnly : 생성된 커넥션의 기본 read-only 여부
3. defaultTransactionIsolation : 생성된 커넥션의 기본 트랜잭션 격리 수준
4. defaultCatalog : 생성된 커넥션의 기본 카탈로그
5. connectionInitSqls : ?
6. poolPreparedStatements : Prepared Statements 사용 여부
7. maxOpenPreparedStatements : Prepared Statements 최대 Open 갯수
8. accessToUnderlyingConnectionAllowed : ?
9. minIdle : Idle상태에 풀이 소유한 최소 커넥션 갯수
번호 제목 날짜 조회 수
301 Ubuntu 16.04 LTS에 Hive 2.1.1설치하면서 "Version information not found in metastore"발생하는 오류원인및 조치사항 2017.05.03 567
300 [우분투] suppoie 채굴 프로세스 발생시 자동으로 삭제하는 shell프로그램 2018.04.01 568
299 Cloudera의 API를 이용하여 impala의 실행되었던 쿼리 확인하는 예시 2018.05.03 568
298 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 2016.05.02 570
297 [oneM2M]Ontologies used for oneM2M 2017.08.02 570
296 kudu 테이블 metadata강제 삭제시 발생하는 오류 메세지 2022.01.12 572
295 Impala daemon기동시 "Could not create temporary timezone file"오류 발생시 조치사항 2018.03.29 575
294 데이타 제공 사이트 링크 2014.08.03 576
293 impala,hive및 hdfs만 접근가능하고 파일을 이용한 테이블생성가능하도록 hue 권한설정설정 2018.09.17 576
292 Incompatible clusterIDs오류 원인및 해결방법 2016.04.01 577
291 lagom에서 제공하는 초기 생성기능을 이용하여 생성한 프로젝트의 소스 파악 2018.01.16 578
290 [kudu]테이블 drop이 안되고 timeout이 걸리는 경우 조치 방법 2020.06.08 579
289 spark-sql실행시 The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH오류 발생시 조치사항 2016.06.09 581
288 Eclipse실행시 Java was started but returned exit code=1이라는 오류가 발생할때 조치방법 2016.11.07 581
287 CDH에서 Sentry 개념및 설정 file 2018.06.21 582
286 시스템날짜를 현재 정보로 동기화 하는 방법(rdate, ntpdate이용) 2014.08.24 583
285 Windows7 64bit 환경에서 Apache Spark 2.2.0 설치하기 2017.07.26 583
284 It is indirectly referenced from required .class files 오류 발생시 조치방법 2017.03.09 588
283 CDH 5.14.2 설치중 agent설치에서 실패하는 경우 확인/조치 2018.05.22 593
282 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 2019.06.14 594
위로