메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


<bean id="dataSource" class="org.apache.commons.dbcp.BasicDataSource" destroy-method="close">
<property name="driverClassName" value="${jdbc.driver}" />
<property name="url" value="${jdbc.url}" />
<property name="username" value="${jdbc.username}" />
<property name="password" value="${jdbc.password}" />
<property name="initialSize" value="100" />
<property name="maxActive" value="150" />
<property name="maxWait" value="10000" />
<property name="maxIdle" value="30" />
<property name="minIdle" value="20" />
<property name="testOnBorrow" value="true" />
<property name="testOnReturn" value="true" />
<property name="validationQuery" value="select 1 from dual" />
<property name="testWhileIdle" value="true" />
<property name="timeBetweenEvictionRunsMillis" value="130000" />
<property name="minEvictableIdleTimeMillis" value="120000" />
<property name="numTestsPerEvictionRun" value="20" />
<property name="removeAbandonedTimeout" value="30" />
<property name="removeAbandoned" value="true" />
<property name="logAbandoned" value="false" />
</bean>


정의한 값


 

1. initialSize : 풀의 초기 커넥션 갯수

2. maxActive : 최대 커넥션 갯수
3. maxWait : 커넥션이 존재하지 않을 때, 커넥션을 얻기까지 대기하는 최대 대기시간
4. maxIdle : Idle상태에 풀이 소유한 최대 커넥션 갯수
5. testOnBorrow : 풀에서 커넥션을 가져올시 커넥션의 유효성 검사
6. testOnReturn : 풀에 커넥션을 리턴할 때 커넥션의 유효성 검사
7. validationQuery : validate Query
8. testWhileIdle : Idle상태에 커넥션의 유효성 검사
9. timeBetweenEvictionRunsMillis : 설정된 주기를 통해 Evict(유효하지 않는 커넥션/정의된 시간이 만료된 커넥션을 풀에서 제거) 쓰레드를 수행
10. minEvictableIdleTimeMiilis : Evict 쓰레드를 수행시, 만료여부를 체크할 시간을 정의
11. numTestsPerEvictionRun : Evict 쓰레드를 수행시 수행할 커넥션의 갯수
12. removeAbandonedTimeout : 유효하지 않은 커넥션의 삭제시의 타임아웃
13. removeAbandoned : 유효하지 않는 커넥션의 제거 여부
14. logAbandoned : 유효하지 않는 커넥션을 생성한 코드 위치 로그생성 여부

정의하지 않은 값
1. defaultAutoCommit : 생성된 커넥션의 기본 auto commit 여부
2. defaultReadOnly : 생성된 커넥션의 기본 read-only 여부
3. defaultTransactionIsolation : 생성된 커넥션의 기본 트랜잭션 격리 수준
4. defaultCatalog : 생성된 커넥션의 기본 카탈로그
5. connectionInitSqls : ?
6. poolPreparedStatements : Prepared Statements 사용 여부
7. maxOpenPreparedStatements : Prepared Statements 최대 Open 갯수
8. accessToUnderlyingConnectionAllowed : ?
9. minIdle : Idle상태에 풀이 소유한 최소 커넥션 갯수
번호 제목 날짜 조회 수
181 Lagom프레임웍에서 제공하는 HelloWorld 테스트를 수행시 [unknown-version]오류가 발생하면서 빌드가 되지 않는 경우 조치사항 2017.12.22 278
180 HDFS Balancer설정및 수행 2018.03.21 277
179 oozie WF에서 참고할만한 내용 2019.07.18 276
178 RDF storage조합에대한 test결과(4store, Jena+HBase, Hive+HBase, CumulusRDF, Couchbase) 페이지 링크 2016.05.26 276
177 spark 2.0.0의 api를 이용하는 예제 프로그램 2017.03.15 275
176 kafkaWordCount.scala의 producer와 consumer 클래스를 이용하여 kafka를 이용한 word count 테스트 하기 2016.08.02 275
175 RDF4J의 rdf4j-server.war가 제공하는 RESTFul API를 이용한 CRUD테스트(트랜잭션처리) 2017.08.30 274
174 S2RDF를 이용한 다른 버젼의 github링크 2016.12.02 274
173 [impala]쿼리 수행중 발생하는 오류(due to memory pressure: the memory usage of this transaction, Failed to write to server) 2022.10.05 273
172 shard3가 있는 서버에 문제가 있는 상태에서 solr query를 요청하는 경우 "no servers hosting shard: shard3" 오류가 발생하는 경우 조치사항 2018.01.04 272
171 elasticsearch 1.3.0에서 rdf및 hadoop plugin설치 2016.04.06 266
» DBCP Datasource(org.apache.commons.dbcp.BasicDataSource) 설정 및 속성 설명 2016.09.26 264
169 hive의 메타정보 테이블을 MariaDB로 사용하는 경우 table comment나 column comment에 한글 입력시 깨지는 경우 utf8로 바꾸는 방법. 2023.03.10 263
168 format된 namenode를 다른 서버에서 다시 format했을때 오류내용 2016.09.22 263
167 Spark Streaming으로 유실 없는 스트림 처리 인프라 구축하기 2016.03.11 263
166 [메모리 덤프파일 분석] 2017.03.31 262
165 [jsoup]Jsoup Tutorial 2017.04.11 257
164 Error: IO_ERROR : java.io.IOException: Error while connecting Oozie server 2022.05.02 256
163 문자열을 숫자(integer)로 casting하기 2016.01.13 252
162 딥러닝 수학/알고리즘 '한국어' 강의 2016.04.10 250
위로