전체 글 (31) 썸네일형 리스트형 네트워크 계층 정리 IP 주소(Address) 데이터를 전송할 때는 출발지와 목적지를 구별할 수 있는 주소함. 네트워크 계층에서 사용되는 주소는 IP 주소. IP 주소는 32비트의 이진수로 구성되며, 보통 10진수로 표현됨 => 8비트로 나누고 다시 10진수로 표현.(구성과 표현의 차이) IPv4에서는 32비트 주소가 사용되고, IPv6에서는 128비트 주소가 사용. 네트워크 ID와 호스트 ID로 나눠서 구성됨(24비트 + 8비트). 라우팅(Routing) 라우팅은 패킷을 보낼 때, 출발지와 목적지를 연결하는 경로를 찾아주는 과정이다. 라우터는 라우팅 테이블을 참조하여 패킷을 전송함. 라우팅 알고리즘으로는 Distance Vector (DV) 라우팅, Link State (LS) 라우팅 등이 존재. Distance Vect.. FastAPI 특징 FastAPI의 철학 High Performance Easy to Learn Fast to Code Ready for Production FastAPI의 특징 OpenAPI를 사용한 자동생성되는 API Swagger Starlette(https://github.com/encode/starlette) 프레임 워크를 기반으로한 비동기 API 서버 지원 Pydantic을 사용하여 데이터 밸리데이션 지원 성능과 부하 테스트에서 JS 와 GO에서 사용되고 있는 그 어떤 웹 프레임워크와도 비교해도 손색없는 수준 1. ASGI란? DJANGO, Flask => WSGI( Web Server Gateway Interface) 사용 => 하지만 동기적 작업이 기본, 구조적인 문제로 인해 많은 트래픽으로 인한 문제 발생... 컴퓨터 네트워크 7차시, 8차시 정리 DNS(Domain Name System) DNS는 Domain Name System의 약자로, 인터넷에서 사용하는 도메인 이름을 숫자 형태의 IP 주소로 변환하는 역할 DNS는 계층적으로 구성되어 있으며 인터넷 사용자들이 도메인 이름을 이용해 웹 사이트 등에 접속할 수 있도록 지원 DNS의 동작 방식 Recursive Domain Name Resolution Iterative P2P(Peer-to-Peer) P2P는 Peer-to-Peer의 약자로, 중앙 서버 없이 직접적으로 연결된 컴퓨터들이 서로 데이터를 주고받는 방식 P2P 방식은 중앙 서버가 필요하지 않기 때문에, 대규모 데이터 전송이 가능하고, 빠른 속도와 안정성을 제공 Pure P2P 문제점 Peer의 부제 보안 취약 일부 PEER가 다른 P.. 컴퓨터 네트워크 IPv4와 IPv6 비교 IPv4와 IPv6 비교 인터넷 프로토콜(IP)은 인터넷 통신에 사용되는 기본 프로토콜. IPv4 => 오래동안 사용됨. 인터넷 사용자 수와 연결된 디바이스 수가 급격히 증가함에 따라 주소 공간이 부족하게 됨. IPv6 => 개발시작 주소 공간 IPv4와 IPv6의 가장 중요한 차이점 중 하나는 주소 공간 IPv4는 약 43억 개의 고유 IP 주소를 허용하는 32비트 주소 공간을 사용 반대로 IPv6는 128비트 주소 공간을 사용하므로 사실상 무제한의 고유 IP 주소를 허용 주소 표현 방식 IP 주소가 표현되고 할당되는 방식이 다름. IPv4에서 주소 => 10진수로 표기.(192.0.2.1) IPv6 주소 => 16진수 표기로 표기.(2001:0db8:85a3:0000:0000:8a2e:0370:733.. NLP Denoising Autoencoder 정리 Denoising Autoencoder Denoising Autoencoder는 오토인코더(Autoencoder)의 변형 모델 중 하나 Autoencoder는 입력 데이터를 압축하여 잠재 변수(latent variable)로 만들고, 이를 기반으로 원본 데이터를 재구성하는 모델 Denoising Autoencoder는 이러한 Autoencoder에 잡음 제거(noise reduction) 기능을 추가한 모델 Denoising Autoencoder는 잡음이 있는 입력 데이터를 받아들이고, 잡음을 제거하여 원래의 입력 데이터로 복원하는 모델 Denoising Autoencoder는 잡음 제거에 매우 효과적 음성 인식이나 이미지 분류와 같은 task에서 입력 데이터의 노이즈를 제거하고, 더 나은 결과를 도출할.. NLP 마스킹(Masking) 정리 마스킹 마스킹은 모델의 입력 데이터에서 특정 값을 가리는 것 자연어 처리 분야에서는 마스킹을 통해 모델이 문장의 일부를 숨기고 나머지 부분만 보고 빈칸 채우기나 문장 생성과 같은 작업을 수행하도록 하는데 활용 마스킹의 두 가지 종류 입력 마스킹 (Input Masking): 입력 시퀀스 중 일부를 마스크하여 모델의 입력으로 사용하는 방법 일반적으로 순환 신경망(RNN)이나 컨볼루션 신경망(CNN)에서 사용됩 이 방법에서는 입력 시퀀스의 일부를 랜덤하게 마스크하여 모델이 해당 부분을 예측하도록 유도함 출력 마스킹 (Output Masking): 출력 시퀀스 중 일부를 마스크하여 모델의 출력에 사용하는 방법 이 방법은 자연어 처리 분야에서 자주 사용되는 마스킹 기법 중 하나로, 입력 문장에서 일부 단어를 마.. NLP MLM(Masked Language Model) 정리 Masked Language Model (MLM) Masked Language Model (MLM)은 자연어 처리 분야에서 널리 사용되는 모델 전체 문장에서 일부 단어를 마스킹(Masking)하고, 해당 마스킹(Masking)된 단어를 모델의 입력으로 주어졌을 때, 마스킹된 단어를 예측하는 task MLM은 Transformer 모델을 비롯한 다양한 자연어 처리 모델에서 사용되며, 이를 통해 모델이 문장 내의 단어들을 이해하고, 문맥을 파악하는 능력을 향상시킬 수 있음. MLM의 학습 과정 전체 문장에서 일부 단어를 랜덤하게 선택하여 마스킹 마스킹된 단어를 제외한 나머지 단어들을 모델의 입력으로 주고, 모델은 마스킹된 단어를 예측 모델은 예측한 단어와 실제 마스킹된 단어를 비교하여 오차를 계산하고, 이를.. NLP Transformer 아키텍처 Transformer 아키텍처 Transformer는 Attention Mechanism을 기반으로 한 딥러닝 아키텍처 입력 시퀀스를 처리하면서 문맥 정보를 모두 유지하면서 각각의 위치와 단어들 간의 상호작용을 파악 Transformer의 핵심 구성 요소는 Encoder와 Decoder로 구성 인코더와 디코더 모두에서 Self-Attention 메커니즘을 사용하기 때문에 입력 시퀀스의 길이에 영향을 받지 않는 모델 Transformer는 자연어 처리 분야에서 기계 번역, 요약, 질문 응답, 이미지 캡셔닝, 텍스트 요약, 기계 번역 등 다양한 태스크에서 활용 용어정리 Encoder - 입력 시퀀스를 입력받아 내부적으로 다수의 Self-Attention 계층과 Feed-Forward 계층으로 이루어진 인코딩.. 이전 1 2 3 4 다음