일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 파이썬 SQL 연동
- michigan university deep learning for computer vision
- 브라이틱스 분석
- Deep Learning for Computer Vision
- 브라이틱스 스태킹
- 딥러닝
- Brigthics Studio
- Brightics EDA
- Brightics studio
- Python
- 비전공자를 위한 데이터 분석
- 브라이틱스 AI
- 삼성 SDS 서포터즈
- 범주형 변수 처리
- 삼성 SDS
- 데이터 분석
- 검증 평가 지표
- 데이터 분석 플랫폼
- Random Forest
- 분석 툴
- 머신러닝
- Brightics AI
- pymysql
- 브라이틱스 서포터즈
- paper review
- Activation Function
- 파이썬 내장 그래프
- 서포터즈 촬영
- Brightics 서포터즈
- 브라이틱스 프로젝트
- Today
- Total
목록분류 전체보기 (66)
하마가 분석하마

유효한 팰린드롬 팰린드롬이란? 회문 또는 팰린드롬은 거꾸로 읽어도 제대로 읽는 것과 같은 문장이나 낱말, 숫자, 문자열 등을 말한다. 보통 낱말 사이에 있는 띄어쓰기나 문장 부호는 무시한다. 1. 리스트 변환을 통한 풀이 .isalnum() : 영문자, 숫자 여부를 판별하는 함수 .lower() : 소문자로 모두 전환 .pop(0) : 리스트의 첫 번째 값을 출력하고 제거함 .pop() : 리스트의 마지막 값을 출력하고 제거함 """ 리스트 활용 함수 """ class Solution: def isPalindrome(self, s: str) -> bool: str_list = [] for char in s: if char.isalnum(): str_list.append(char.lower()) while..

리스트, 딕셔너리 리스트 파이썬의 리스트는 말 그대로 순서대로 저장하는 시퀀스이자 변경 가능한 목록(Murable List)을 말한다. 입력 순서가 유지되며, 내부적으로는 동적 배열로 구현되어 있다. List를 사용하면 사실상 스택을 사용할지, 큐를 사용할지를 고민하지 않아도 되며, 스택과 큐에서 사용 가능한 모든 연산을 함께 제공한다. 연산 시간 복잡도 설명 len(a) O(1) 전체 요소의 개수를 리턴한다. a[i] O(1) 인덱스 i의 요소를 가져온다. a[i:j] O(k) i부터 j까지 슬라이스의 길이만큼인 k개 요소를 가져옴 elem in a O(n) elem 요소가 존재하는지 확인 a.count(elem) O(n) elem 요소의 개수를 리턴 a.index(elem) O(n) elem 요소의 ..

빅오, 자료형 빅오란? 컴퓨터과학에서 빅오는 입력값이 커질 때 알고리즘의 실행 시간(시간 복잡도)과 함께 공간 요구사항(공간 복잡도)이 어떻게 증가하는지를 분류하는 데 사용되며, 알고리즘의 효율성을 분석하는 데에도 매우 유용하게 활용된다. 먼저 빅오(O, big-O)란, 점근적 실행 시간을 표기하는 대표적인 수학적 표기법이다. 여기서 점근적 실행 시간이란, 입력값이 무한대를 향할때 lim 함수의 실행 시간의 추이를 의미한다.(어떤 알고리즘을 수행하는 데 걸리는 시간을 설명하는 계산 복잡도이다.) 관심의 대상은 입력의 크기가 충분히 클 때인데, 이렇게 입력이 큰 경우에는 알고리즘의 효율성에 다라 수행 시간이 크게 차이가 날 수 있다. 파일이 작다면 온라인으로 전송하는 것이 비행기를 통해서 전달하는 것 보다..

본 논문은 특정 지역의 강수량을 예측하는 것에 Convolutional LSTM을 적용한 알고리즘을 제안합니다. 우선 Convolution 구조를 LSTM에 넣었다는 부분이 인상 깊었습니다. 제안하는 알고리즘의 구조는 데이터의 시공간적 관계를 모두 파악하기 위해 Convolutional LSTM을 사용했고, Encoding-Forecasting 구조를 적용하였습니다. 아직 이해가 가지 않은 것은 예측 방법입니다. 논문에서는 "As our prediction target has the same dimensionality as the input, we concatenate all the states in the forecasting network and feed them into a 1 × 1 convolu..

본 논문은 Multivariate time series prediction에서 예측 정확도를 개선하고, 비주기적 시계열 데이터에 대해서 robust한 알고리즘인 M-TCN을 제안합니다. M-TCN은 RNN 계열이 아닌 CNN의 특징을 가진 알고리즘이며 기존에 나왔던 TCN의 방법을 다르게 1D convolution과 두 개의 비대칭 residual block을 사용하는 등 여러 특징을 가지고 있습니다. 변수들에 대해서 각기 다른 sub-model을 적용했다는 점과 time series forecasting에서 causal convolution이 아닌 1D convolution을 사용했다는 점이 인상 깊었습니다. 아직 이해를 완벽하게 못 한 부분은 causal convolution이 절대적인 시간 순서에 ..

Michigan University의 'Deep Learning for Computer Vision' 강의를 듣고 정리한 내용입니다. Generative Models 1,2 Supervised vs Unsupervised Learning 1. 지도학습 Classification : image가 입력되면 class를 출력 Regression : 수치 예측 Object Detection : image 객체들의 bounding box를 그림 Semantic segmentation : 모든 pixel마다 각 pixel이 속하는 category 결정 Image captioning : image에 대해 자연어의 형태를 띈 문장을 출력 2. 비지도학습 Clustering : 유사한 데이터들끼리 그룹화 Dimensio..

Michigan University의 'Deep Learning for Computer Vision' 강의를 듣고 정리한 내용입니다. Attention Attention RNN에 기반한 seq2seq 모델은 2가지 문제가 있습니다. 모든 정보를 하나의 context vector에 압축하여 넣다보니 정보의 손실이 발생 Vanishing Gradient problem 발생 입력 문장이 길어지는 경우 발생하는 위와 같은 문제를 해결하기 위해 나온 것이 Attention입니다. Attention mechanism에 대해서 이해해보자. 지금부터 모든 단어에 대한 context를 기억하는 방법으로 RNN with Attention의 구조를 살펴보겠다. Input과 Output은 동일하게 sequence data이다..

Michigan University의 'Deep Learning for Computer Vision' 강의를 듣고 정리한 내용입니다. Recurrent Neural Networks Classical Approach for Time Series Analysis Time domain analysis -> width, step, height of signal Frequency domain analysis -> Fourier analysis or wavelets Nearest neighbors analysis -> Dynamic time warping (DTW) Probabilistic Model -> Language modeling (S)AR(I)MA(X) models -> Autocorrelation ins..