본문 바로가기

테크공부20

2025년 정보처리기사 시험 일정 및 필기 기출문제 공부 방법 정보처리기사 필기시험을 준비하는 것도 벌써 5주차가 되었다. 현재 메타코드에서 제공하는 정보처리기사 필기 강의를 들으면서 학습을 진행하고 있는데, 이제 5강에 해당하는 기출문제 풀이까지 (드디어) 모두 완강하였다!🤗 생각보다 강의 수 한 편당 길이가 부담 없는 편이기도 하고, 강의 숫자가 압도될 만큼 많은 것도 아니어서 금방 끝낼 수 있을 거라 생각했지만.. 이러한 생각은 완전 오산이었다.ㅋㅋㅋㅋ.     ✅ 2025년 정보처리기사 시험 일정유형접수 기간시험일결과 발표필기1/13~1/162/7~3/43/12실기3/24~3/274/19~5/96/5, 6/13      정보처리기사 시험은 필기 시험과 실기 시험으로 나누어 진행된다. 필기 시험​의 경우, 소프트웨어 설계/소프트웨어 개발/데이터베이스 구축/프.. 2024. 12. 26.
메타코드 정보처리기사 필기 개념 강의, 수강 완료! 한 달 전부터 틈틈이 시간을 내어 수강하고 있는 2025년 정보처리기사 필기 강의! 현재 메타코드라는 IT 관련 온라인 교육 플랫폼에서 제공하는 강의를 수강하고 있는 중이다. 그리고 만 4주가 지난 지금, 드디어 개념 강의를 모두 수강하였다.T _T)/ (감격) 메타코드에서 제공하는 정보처리기사 필기 강의는 총 5강으로 구성이 되어있기는 하나, 1강당 적게는 4개, 많게는 7개 이상의 세부 강의로 나뉘어있다. 그렇다 보니 1강 전체를 다 듣기 위해서는 최소 1시간에서 넉넉하게 3시간가량은 걸리는 편이다.       인터넷을 하면서 들어본 단어들도 있지만, 실제로는 처음 들어보는 생소한 용어들이 훨씬 더 많아서 실제 강의 진행 시간보다 훨씬 더 많은 시간이 들어갔다. 비전공자를 대상으로 진행하는 강의이기 .. 2024. 12. 22.
2025년 정보처리기사 필기 시험 일정 공유 (+메타코드 정처기 강의) 내년 목표 중 하나인 정보처리기사 취득하기! 이 목표 달성을 위해 지금부터 정보처리기사 필기시험을 준비하고 있다. 아무래도 비전공자이다 보니 관련 분야에 대한 관심과 기본 지식을 입증하기에 유용하고, 취업을 할 때 가산점 혜택도 노려볼 수 있기 때문이다.  그리고... 이번 주, 한국 산업 인력공단이 2025년도 국가기술자격 검정 시행계획을 공개하였다....!   일정은 위 사진과 같다. 내년 1회 정보처리기사 필기시험의 일정은 2/7 ~ 3/4이다. 원서 접수는 약 한달 앞당겨서 진행된다. 참고로 원서 접수는 인터넷으로만 가능하다. (www.Q-net.or.kr) 시행 계획 공고문을 살펴보니, 시험 응시할 때 신분증을 꼭 지참해야하며 메모지나 전자기기는 소지가 불가하다. 당연히 스마트워치도 사용이 불가.. 2024. 12. 15.
메타코드에서 정보처리기사 필기 시험 준비 중! 취준을 준비하는 학생이라면 한 번쯤 취득하는 걸 목표로 해보게 된다는 바로 그 자격증!바로, 정보처리기사 자격증이다. 정보처리기사는 필기시험과 실기시험으로 나누어지는데, 일 년에 보통 3회 진행이 된다.   컴퓨터공학을 전공하는 건 아니지만, 그래도 이 분야에 대한 관심을 보여질 수 있고,공기업 지원 시 가점을 받을 수 있다는 판단에 정보처리기사 시험에 도전하기로 결심했다 ' _')/   ▼ 메타코드 정보처리기사 필기 환급 챌린지  정보처리기사 필기 환급 챌린지ㅣ합격 인증 시 100% 환급 (제세공과금 22% 제외) metacodes.co.kr  그리고 정보처리기사 필기부터 준비하고 있는 나에게 메타코드가 혼자서 공부하기가 막막한 와중에 빛이 되어주고 있다.메타코드는 인공지능, 빅데이터, 클라우드 등 다.. 2024. 12. 8.
메타코드M의 캐글 데이터를 활용한 추천시스템 실습 (머신러닝과 딥러닝 강의) 기말고사 기간인데도 틈틈이 시간을 내어서 듣고 있는 메타코드M의 머신러닝/딥러닝 강의!바로 캐글 데이터를 활용한 개인화 추천 시스템 실습 강의예요. 실제로 대기업에서 10여년 이상 현직에서 일하고 있는 데이터 분석가가 강의를 진행해주다보니, 단순히 이론 중심의 수업이 아니라 실습 위주로 진행하는게 특징이예요.🙂     강의는 총 7강으로 나누어있고, 한 강의당 보통 10~20분 사이로 나눈 세부 강의들이 여러 개 속해있어요.강의자료는 캐글 데이터 링크로 공유해주셔서 이걸 보면서 강의와 함께 실제로 따라해보고 있어요!        이론이 중심인 건 아니지만그래도 본 실습에 들어가기에 앞서 전반적인 코드 라인과 활용할 시스템에 대한 특성들에 대해서는 친절하게 설명해주세요! 물론 코드 이해나 캐글 데이터 i.. 2024. 12. 4.
합성 데이터 (Synthetic Data) 합성 데이터(Synthetic data):합성데이터는 실제 데이터를 기반으로 하거나, 완전히 새로운 데이터셋을 생성하기 위해 알고리즘을 사용하여 만들어진 인공 데이터   # 합성 데이터(Synthetic data) 장점 - 데이터 프라이버시 보호: 민감한 정보를 포함하는 데이터 대신 합성 데이터를 사용하여 개인정보를 보호- 데이터 부족 문제 해결: 실제 데이터가 부족할 때, 합성 데이터를 통해 데이터셋을 보충할 수 있음  #합성 데이터(Synthetic data) 필요성-학습데이터 고갈: 현재 인터넷상에 존재하는 데이터만으로는 2년 내 AI 모델 성능을 높이는 데 한계를 맞을 것-반면 데이터 수집은 점점 어려워지고 있음: 저작권 문제, 고품질 데이터는 주제가 다양하고 풍부한 표현이 들어간 데이터로 인터넷.. 2024. 11. 30.
Retrieval Augmented Generation(RAG) Retrieval Augmented Generation(RAG) : 자연어 처리(NLP) 분야에서의 혁신적인 기술로, 기존의 언어 모델의 한계를 넘어서 정보 검색과 생성을 통합하는 방법론  - RAG는 풍부한 정보를 담고 있는 대규모 문서 데이터베이스에서 관련 정보를 검색하고, 이를 통해 언어 모델이 더 정확하고 상세한 답변을 생성할 수 있게함- 예를 들어, 최신 뉴스 이벤트나 특정 분야의 전문 지식과 같은 주제에 대해 물어보면, RAG는 관련 문서를 찾아 그 내용을 바탕으로 답변을 구성  # RAG 모델의 기본 구조• 생성 단계(Generation Phase): 검색된 데이터를 기반으로 LLM 모델이 사용자의 질문에 답변을 생성하는 단계• 이 단계에서 모델은 검색된 정보와 기존의 지식을 결합하여, 주어.. 2024. 10. 31.
Generative AI GPT-1 GPT는 transformer의 decoder으로만 구성 ▶ 원래 transformer의 encoder에서 넘어온 정보를 받아들이는 decoder의 multi-head attention 블록이 필요 없음 GPT-1 Pre-training (Text-Prediction)• Byte pair encoding (BPE): 문장 혹은 단어 안에 있는 글자들을 적절한 단위로 나누는 subword tokenizer의 하나: token들의 빈도를 기반으로 높은 빈도의 토큰들을 merge해가며 최종 token들을 만들어내는 방법  GPT-1 Fine-Tuning• Fine-Tuning 단계에서 Text-Prediction을 목적 함수를 보조로 사용• Text Prediction(보조) + Task 목적 함수.. 2024. 10. 31.
BERT #BERT • BERT(Bidirectional Encoder Representations from Transformers)는 구글에서 2018년에 발표한 모델• BERT는 Transformer의 인코더-디코더 중 인코더만 사용하고, 인코더를 양방향으로 설계하여 만들었음 • BERT를 이용한 언어 처리는 2단계로 이루어짐- 거대 Encoder가 입력 문장들을 임베딩하여 언어를 모델링하는 Pre-training 과정- 이를 fine-tuning하여 여러 자연어 처리 Task를 수행하는 과정  #BERT의 Pre-training1) BERT의 MLM(Masked Language Model)- MLM은 입력 문장에서 랜덤하게 일부 단어를 마스크하고, 해당 단어를 예측하는 것 2) BERT의 NSP(Next S.. 2024. 10. 31.
Neuro-Symbolic AI Symbolic Approaches - 기호를 통해 개념을 정의하고 일정한 논리적 규칙에 따라 추론하는 방법- 일반화 능력이 우수하며, 결론에 대한 설명이 가능- 단점: 불완전한 Knowledge Base에 의존, 논리적 규칙에 의해 정의된 지식과 새롭게 생성되는 지식 간의 연결이 어려움   Neural Models - 대량의 데이터를 이용해 다층 구조로 이루어진 인공신경망을 통해 귀납적 추론- 미분 가능한 방식으로 학습하며 높은 성능을 보여줌- 단점:   • 대량의 데이터를 요구  • 결론 도출에 대한 설명력 부족  • 훈련 데이터 셋에 의존적이고, 편향적인 학습이 이루어질 가능성이 있음   Neuro-Symbolic AI - Neural/Symbolic 모델의 장점 결합- 새롭게 확장되는 지식 간의 .. 2024. 7. 31.
Prompt Engineering와 Prompt Tuning Prompt Engineering : Pre-training된 LLM을 별도의 학습없이 사용자가 원하는 답변을 생성하도록 직접 입력 프롬프트를 효과적으로 설계하는 기술• 장점 : • LLM을 원하는 출력으로 안내하도록 프롬프트를 신중하게 만들 수 있음• 단점 : 프롬프트는 신중하게 작성해야 하며 효과적인 프롬프트를 찾기 위해 시행 착오가 필요함  Prompt Tuning : Prompt의 weight만 tuning하는 기술: 튜닝된 Prompt Weight와 LLM 고정된 weight 값을 활용하여 원하는 답변을 생성하는 것을 목표로 함 • 장점 : 프롬프트 튜닝은 더 자동화되어 있기 때문에 프롬프트 엔지니어링보다 빠르고 쉬움• 단점 : 프롬프트 튜닝은 출력에 대한 많은 제어를 허용하지 않기 때문에 성능.. 2024. 7. 31.
인공지능의 신뢰성 확보 방안 🫧인공지능 신뢰성 확보 방안  1. 양질의 데이터 확보- 데이터 양은 충분한가?- 적은 데이터 수는 곧바로 분석 결과의 신뢰성 하락으로 연결됨.   이는 많은 데이터를 통해 충분히 검증한 결과와 그렇지 않은 결과의 차이- 예외는 있음: 적은 데이터로도 문제 해결을 충분히 해낼 수 있기도 함 (양질의 데이터)  2. 믿을 수 있는 데이터인가?- 데이터 수가 뒷받침된다고 해서 모든 데이터를 활용할 수 있는 것은 아님- 분석 결과를 누구나 인정할 수 있도록 데이터 자체에 대한 신뢰성이 뒷받침되어야 함 🙄 데이터 신뢰성이란?: 데이터가 얼마나 편향되지 않고, 실제 정보를 똑바로 담고 있는가  3. 데이터가 순수한 정형데이터인가?#데이터 유형 구분• 반정형 데이터 : 구조 정보를 포함한 내용을 담고 있어 데이.. 2024. 7. 31.
포브스가 선정한 5가지 인공지능 편향 🫧포브스가 선정한 5가지 인공지능 편향  1. 인간의 편향(Human Bias) : 인공지능이 학습하는 데이터는 인간으로부터 기인되기 때문에 학습데이터 자체에 편향이 개입될 수 있음  2. 숨겨진 편향(Hidden Bias): 인공지능에서 가장 발견하기 어려운 것이 숨겨진 편향으로, 절대 보거나 발견될 수 없는 의도하지 않은 편향을 의미  3. 데이터 표현 편향(Data Sampling Bias): 자료 수집 단계에서 데이터 샘플링 편향이 생길 수 있음예) 남자가 의사인 경우가 많고 여자가 간호사가 많기 때문에 인공지능이 직업에 대한 성별을 단정하는 경우가 생길 수 있음  4. 롱테일 편향(Long-tail Bias): 학습에 사용된 데이터가 특정 카테고리가 빠져서 생기는 편향 예) 흑인 데이터 없어서.. 2024. 7. 31.
규칙 기반 모델과 딥러닝 기반 모델 비교 규칙 기반 모델 vs 딥러닝 기반 모델 비교   규칙 기반 모델 - 규칙 구축에 대한 시간이 많이 필요하지만 논리적 추론을 통해 결론을 생성- 결과에 대한 해석이 가능함- 학습에 필요한 데이터가 비교적 적게 필요, 학습한 모델은 규칙을 정의한 전문가의 수준이 최대 성능임- 전문가의 오류를 동일하게 반복  딥러닝 기반 모델 - 논리적 추론이 아닌 귀납적 근사에 의한 결론을 생성- 결과에 대한 해석이 어려움- 학습에 필요한 데이터가 많이 필요 - 학습한 데이터에 의존적이기 때문에 데이터 정책/윤리에 위반되지 않는 데이터를 선별해야함- 학습한 모델이 전문가가 생각하지 못한 새로운 방법을 찾아내기도 함(알파고 vs 이세돌) 2024. 7. 31.
딥러닝 / 인공지능 / 머신러닝 구분하기 인공지능이 가장 큰 범위! 머신 러닝이 그 하위 범위이고,딥러닝은 가장 좁은 범위의 용어 :)    인공지능(Artificial Intelligence, AI) 지각, 학습, 추론, 문제해결, 언어 상호작용, 창의적 작품 제작과 같은 인간 지능의 특정 기능을 모방할 수 있는 기계   머신러닝(Machine Learning, ML) 명시적으로 규칙을 프로그래밍 하지 않고, 데이터로부터 의사 결정을 위한 패턴을 기계가 스스로 학습하는 것   딥러닝(Deep Learning, DL) 인간의 능력과 비슷한 인공신경망 방식으로 정보를 처리하는것 2024. 7. 31.
마르코프 가정과 N-gram 마르코프 가정(Markov Assumption) - 기존 연쇄 법칙의 복잡성을 해결하고 간소화 하기 위함- 단어 Wn 이 나타날 확률은 그 앞의 단어 Wn-1이 나타날 확률만 연관이 있다고 봄- 한계점:    • 언어 현상에 적용하기에는 지나친 단순화   • 언어의 장기 의존성 간과됨   • 예측 정확도가 낮아질 수 있음  N-gram -  문장 내 단어는 주변 여러 단어와 연관있다고 가정- N: 주변의 몇 개 단어를 볼 것인지 정하는 임의의 숫자- N-gram: N개의 단어열.... 1-gram(유니그램), 2-gram(바이그램), 3-gram(트라이그램)  N-1 차 마르코프 가정 한계 – trade off - N을 크게 선택하면 실제 훈련 코퍼스에서 해당 n-gram을 카운트 할 수 있는 확률은 적.. 2024. 7. 31.
자연어처리를 어렵게 하는 언어적 요인들 🙄자연어처리를 어렵게 하는 언어의 특성 5가지!   #1. 중의성- 한 단어가 여러 뜻을 가지고 있다. (다의어)- 같은 표현이라도 맥락에 따라 다른 의미를 지닌다. (Sarcasm)  #2. 변의성- 지역, 계층, 연령, 성별에 따라 사용하는 언어가 다르다- 사투리, 존댓말, 10대 신조어  #3. 문화적 차이- 같은 의미를 지니더라도 다른 표현으로 나타낸다.- 속담!   #4. 규칙의 예외- 불규칙 동사, 명사의 복수형의 예외- 숙어와 일반 동사나 명사의 의미가 일대일 대응이 안될 수도 있음.  #5. 유연성과 확장성- 단어를 조합하여 만드는 문장의 수나 길이가 무한하다.- 새로운 단어가 무한히 새롭게 생성된다. 2024. 7. 30.
모두를 위한 딥러닝 : Recurrent Neural Network [목차]시퀀셜 모델링의 이해RNN 계열 구조 이해 1. 시퀀셜 모델링의 이해 👀  RNN (Recurrent Neural Network) 신경망, 순환신경망•  순차적으로 진행함에 따라 이전 시점에서 계산한 데이터 값까지를 모두 반영하여 데이터 값을 결정하는 방식• RNN 구조는 input / output에 따라 다양한 영역에 적용가능   👀 Sequential modeling :• 문장과 같이 순차적 데이터를 처리하는 모델•  시간이나 순서에 따른 패턴을 학습하는 데 특히 유용 • Sequential Data = 순서가 있는 데이터 (예시: 텍스트, 시계열 데이터, 음성 데이터 등)   2. RNN 계열 구조 이해  ✨일 대 다(one-to-many) 구조• 하나의 이미지 입력에 대해서 사진의 제목.. 2024. 4. 18.
모두를 위한 딥러닝 : 임베딩의 이해 [목차] 임베딩이란? 사전학습 임베딩 모델 다양한 임베딩 모델 1. 임베딩이란? 👀 Word Embedding • 단어를 의미적으로 표현하는 방법 • 자연어 처리에서 단어를 수치형 벡터로 변환하는 기술 • 각 단어는 벡터 공간에서 고유한 위치를 가지며, 의미적으로 유사한 단어는 벡터 공간에서 가까운 위치에 매핑. 📍 모든 단어는 같은 차원을 가지는 벡터로 변환됨. 변환된 단어를 신경망에 인풋으로 사용하게 됨. 예를 들어, '나'와 'I'라는 단어는 서로 가까이 위치함. '기차'라는 단어는 상대적으로 멀리 위치하게 됨. ▷ 비슷한 의미를 가지고 있으면 벡터가 가까이 위치해 있음, 의미적으로 멀다면 벡터는 의미가 멀다. 👀 자연어처리과정 ① 처음부터 임베딩을 훈련하는 형태 • 학습 과정에서 단어의 의미도 학.. 2024. 4. 17.
모두를 위한 딥러닝 : 딥러닝을 이용한 자연어처리 [목차] 자연어처리의 이해 전처리의 이해 한국어/영어 데이터 전처리 기법 1. 자연어처리의 이해 👀 '자연어처리'란? • 컴퓨터 과학과 인공 지능의 한 분야 • 인간이 사용하는 자연어(일상적인 언어)를 기계가 이해하고 처리하는 기술 • NLP는 컴퓨터가 텍스트, 음성 또는 다른 형태의 자연어를 이해하고 해석하며, 이에 대한 응답을 생성하는 기술을 포함 📍 자연어처리의 응용 분야 1) 기계 번역 (Machine Translation): • 언어 간의 번역을 자동으로 수행하는 기술 • 구글 번역, DeepL, 파파고... 2) 감정 분석 (Sentiment Analysis): • 텍스트에서 감정이나 태도를 감지하는 기술 • 제품 리뷰, 트위터 글 등을 분석하여 사용자의 감정을 이해하는 데 사용 • 최근 추천.. 2024. 4. 14.