일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- ICT멘토링
- rnn
- suricata
- Python
- 코딩도장
- Database
- VSCode
- LINUX MASTER
- Docker
- C언어
- 고등학생 대상
- colab
- 국가과제
- 인터넷의이해
- Spring Boot
- Powershell
- Rocky Linux
- 크롤링 개발
- Web
- Machine Learning
- KAKAO
- Resnet
- OSS
- ChatGPT
- git
- GoogleDrive
- cloud
- Spring
- Github
- API
- Today
- Total
목록AI/머신러닝 + 딥러닝 (11)
코딩두의 포트폴리오

예시 준비 wine.info() - 데이터 프레임의 요약 정보 출력wine.describe() - 데이터프레임의 기초 통계 요약 정보를 출력 로지스틱 회귀 적용 모델 생성: LogisticRegression 클래스를 사용하여 로지스틱 회귀 모델을 생성모델 학습: fit 메소드를 사용하여 모델을 학습모델 평가: 훈련 데이터와 테스트 데이터에 대한 정확도를 평가계수와 절편: 모델의 회귀 계수와 절편을 출력 결정 트리 모델 생성: DecisionTreeClassifier 클래스를 사용하여 결정 트리 모델을 생성모델 학습: fit 메소드를 사용하여 모델을 학습모델 평가: 훈련 데이터와 테스트 데이터에 대한 정확도를 평가모델 시각화: plot_tree를 사용하여 결정 트리의 구조를 시각화불순도 성과 동일 ..

가상의 시나리오데이터 추가 시 새로운 모델을 생성 확률적 경사 하강법(Stochastic Gradient Descent)은 랜덤 방식비용 함수를 최소화하기 위해 사용확률적 경사 하강법은 조금씩 내려가는 방식epoch = 전체 훈련 데이터셋을 한 번 모델에 전달하여 학습하는 단계-> 여러 에포크를 통해 모델이 데이터를 반복적으로 학습 -> 가중치가 최적화 손실 함수는 나쁜 정도를 측정하는 함수모델의 예측 값과 실제 값 간의 차이를 측정모델의 성능을 최적화하는데 사용정확도는 손실 함수로 사용할 수 X (= 미분 가능 X) 분류일 때 로지스틱 손실 함수 사용 (이진 분류 모델에서 사용되는 손실 함수)회귀 - 평균 절댓값 오차, 평균 절댓값 오차 -> 미분 가능하여 손실 함수로 사용 가능분류 - 정확도로 ..

럭키 백 확률 계산 데이터셋 준비 판다스 라이브러리 임포트CSV 파일을 읽어와 데이터프레임으로 저장데이터프레임의 처음 5행을 출력하여 데이터 구조를 확인입력 데이터와 타겟 데이터를 분리하여 각각 넘파이 배열로 변환 다중 분류사이킷런의 객체 속성에 _가 끝에 붙어 있으면모델 클래스 생성 시 지정한 값 x, 모델이 데이터로부터 학습한 속성일 경우에 _ 과정 K-최근접 이웃 분류기 생성: KNeighborsClassifier 객체를 생성하고, 이웃의 수를 3으로 설정모델 학습: 훈련 데이터를 사용하여 모델을 학습클래스 확인: 학습한 클래스(어종)를 출력예측: 테스트 데이터의 샘플에 대해 예측을 수행확률 예측: 테스트 데이터의 샘플에 대해 각 클래스에 속할 확률을 계산하고 출력 로지스틱 회귀종속 변수..

다중 회귀여러 개의 독립 변수(설명 변수 또는 예측 변수)를 사용하여 종속 변수(타깃 또는 결과 변수)를 예측하는 방법 다항 회귀는 하나의 독립 변수 또는 여러 독립 변수를 사용 (차이점) 판다스데이터 구조와 데이터 조작 도구를 제공하여 데이터 분석 작업 수행데이터 프레임은 다차원 배열 훈련 셋, 데이터 셋으로 넘파이 배열을 나눴다고 가정객체 생성 선형 회귀종속 변수 y와 한 개 이상의 독립 변수 (또는 설명 변수) X와의 선형 상관 관계를 모델링하는 회귀분석 기법 특성 만들기규제 - 과대적합을 방지하는 용도로 머신러닝 모델이 훈련 세트를 너무 과도하게 학습하지 못 하도록 훼방정규화라고 표현하기도 함 (여기서는 혼돈으로 인해 규제로) 표준화스케일 차이 제거, 수렴 속도 향상을 위해 규제 전에 표..

문제 발견 산점도 선형 회귀알려진 다른 관련 데이터 값을 사용하여 알 수 없는 데이터의 값을 예측하는 데이터 분석 기법직선의 방정식을 찾는 것특성 여러개 사용 -> 복잡한 모델 생성 가 사이킷런의 선형 회귀 알고리즘 직선 그리기 다항 회귀 재훈련 직선 그리기

분류 - 도미, 빙어 구분 (n개의 종류를 분류)회귀 - 농어의 무게를 예측 (임의의 숫자를 예측)회귀 분석은 관찰된 연속형 변수들에 대해 두 변수 사이의 모형을 구한 뒤 적합도를 측정해 내는 분석 방법 분류 vs 회귀분류 - 이웃한 클래스의 다수 클래스 사용회귀 - 이웃한 클래스의 타켓을 평균 농어 데이터 산점도로 표현회귀의 일반적인 스타일 - 특성 1에서 시작 훈련 셋 vs 테스트 셋 회귀 분석 / 훈련 과대적합, 과소적합 개수 감소k = 이웃의 개수

예측 리스트에 리스트 생성numpy _ones 함수 -1로 채워진 어떤 특정 크기 배열 생성 시numpy _zeros 함수 - 0으로 채워진 어떤 특정 크기의 배열 만들 때 사이킷런 도미 -> 빙어 예측? 기준 설정 표준 점수: (특성 - 평균) / 표준편차 다시 표현 변환된 데이터 훈련데이터 전처리: 기존의 데이터를 머신러닝 알고리즘에 알맞은 데이터로 바꾸는 과정

지도 학습: 입력 + 타겟 데이터롤 사용비지도 학습: 유용한 작업 수행 시 특성 개수 줄이거나, 비슷한 샘플끼리 군집 등을 수행 훈련 셋의 일부를 테스트 셋으로 사용 객체 초기화, train_input, train_target / test_input, test_target 모집단의 특정 개인이나 그룹이 다른 개인이나 그룹보다 표본에 포함될 가능성이 높아-> 표본이 편향되거나 대표성을 갖지 못하는 상황 넘파이: Python에서 과학 연산을 위한 가장 기본적인 패키지텐서: 다차원의 배열 훈련 셋, 데이터 셋 인덱스 섞기 파란색 - 훈련 데이터주황색 - 테스트 데이터 머신러닝 프로그램 작성