본문 바로가기

분류 전체보기175

손에 잡히는 정규표현식 정규식 : 검색 + 치환 정리 2장 문자 하나 찾기 . 모든 문자 1개 \r이나 \n은 해당사항 없음 \. 마침표(.) 역슬래시 3장 문자 집합으로 찾기 [] 문자집합(집합내에 1개만 사용됨) [a-z] a부터z까지 범위 정할때 하이픈 사용 하이픈(-)은 대괄호[]내에서만 메타문자이다.대괄호 밖에서는 그냥 문자임. [0-9] [0123456789] [^0-9] 집합을 제외하고 찾기 대괄호[] 안에서 효과 4장 메타 문자 \ 이스케이프 \\ 문자(\)를 표시 공백메타문자 [\b] 역스페이스 \f 페이지넘김(form feed) \n 줄바꿈 \r 캐리지 리턴 \t 탭 \v 수직 탭 숫자 \d 숫자 하나 [0-9] \D 숫자 제외한 문자 하나 [^0-9], 당연히 \r\n같은 것은 제외 문자 \w [a-zA-Z.. 2016. 8. 16.
엘라스틱서치 연습 시작하세요! 엘라스틱서치 : 루씬 기반의 실시간 오픈소스 검색엔진김종민 저 | 위키북스 출간일2015년 02월 16일408쪽 | 955g | 188*240*24mmISBN-139788998139797ISBN-108998139790판매중 | 판매지수 3720 Elastic Search (엘라스틱서치) 입문 - 슬라이드http://www.slideshare.net/seunghyuneom/elastic-search-52724188 김종민: 슬라이드쇼http://www.slideshare.net/kjmorc/ss-49009522 은전한닢 프로젝트http://eunjeon.blogspot.kr/ elasticsearch로 로그 검색 시스템 만들기http://d2.naver.com/helloworld/273788 .. 2016. 8. 8.
안드로이드 host 파일 변경 http://www.howtogeek.com/140576/how-to-edit-the-hosts-file-on-android-and-block-web-sites/ 2016. 7. 21.
Spark 시작하기20 - [Spark와 머신 러닝] 5장 스파크를 이용한 분류 모델 구현 scala로 짜여진 소스코드를 java8 로 작성하였다. package org.test.ch5; import java.io.Serializable; import java.util.Arrays; import java.util.Map; import org.apache.log4j.PropertyConfigurator; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.mllib.classification.LogisticRegressionModel; import org.apache.spark.mllib.classification.LogisticRegres.. 2016. 5. 7.
Spark 시작하기19 - [Spark와 머신 러닝] 4장 스파크를 이용한 추천 엔진 구현 scala로 짜여진 소스코드를 java8 로 작성하였다. package org.test.ch4; import java.io.Serializable; public class MyTuple2 implements Comparable, Serializable{ private static final long serialVersionUID = 1L; private K key; private V value; public MyTuple2(K key, V value){ this.key = key; this.value = value; } public K getKey() { return key; } public void setKey(K key) { this.key = key; } public V getValue() { re.. 2016. 5. 4.
Spark 시작하기18 - [Spark와 머신 러닝] 3장 스파크를 이용한 데이터 수집, 프로세싱, 준비2 python으로 짜여진 소스코드를 java8 로 작성하였다. package org.test.ch3; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Arrays; import java.util.Collections; import java.util.Date; import java.util.LinkedHashMap; import java.util.List; import java.util.Map; import java.util.regex.Matcher; import java.util.regex.Pattern; import org.apache.log4j.PropertyConfigurator; import org.apa.. 2016. 5. 4.
Spark 시작하기17 - [러닝 스파크] 7장 클러스터에서 운영하기 spark를 이용한 클러스터,,, 일단 1PC에서 마스터 1개, 워커 여러개를 cmd 명령어로 각각 실행시키고,D:\java_util\spark\spark-1.6.0-bin-hadoop2.6\bin\spark-class org.apache.spark.deploy.master.MasterD:\java_util\spark\spark-1.6.0-bin-hadoop2.6\bin\spark-class org.apache.spark.deploy.worker.Worker spark://192.168.56.1:7077D:\java_util\spark\spark-1.6.0-bin-hadoop2.6\bin\spark-class org.apache.spark.deploy.worker.Worker spark://192.168.. 2016. 4. 26.
Spark 시작하기16 - [러닝 스파크] 6장 고급 스파크 프로그래밍 람다식 안에서 클로저 작동을 원활하게 하기 위해 어큐뮬레이터, 브로드캐스트 를 사용한다. package org.mystudy; import java.io.File; import java.io.FileNotFoundException; import java.io.Serializable; import java.util.ArrayList; import java.util.Arrays; import java.util.List; import java.util.Scanner; import java.util.regex.Pattern; import org.apache.log4j.PropertyConfigurator; import org.apache.spark.Accumulator; import org.apache.spar.. 2016. 4. 26.