ÅÙ¼­ÇÃ·Î¿ì µö·¯´×

ȨÀ¸·Î±³À°°úÁ¤AI ¾ÆÄ«µ¥¹Ìµö·¯´×

Àϼö/½Ã°£ 4ÀÏ / 32½Ã°£ (09:00~18:00) °­»ç ÇÑÄľÆÄ«µ¥¹Ì Àü¹®°­»ç
°úÁ¤¸Å´ÏÀú  Á¤½ÂÈ£ (031-622-7684)
±³À°ºñ 990,000¿ø (VATÆ÷ÇÔ)
¼±¼ö°úÁ¤ ÆÄÀ̽ã ÇÁ·Î±×·¡¹Ö ±âÃÊ
ÈļӰúÁ¤ Embedded Deep Learning(CNNÀ» ÀÌ¿ëÇÑ ¿µ»óÀνÄ)
½Ç½ÀÀåºñ Window OS, PyCharm, Tensorflow, python
Á¤¿ø 20¸í
Àüü ±³À°ÀÏÁ¤
±³À°ÀÏÁ¤ ½Åû¸¶°¨ÀÏ ¼ö°­½Åû ±³À°Àå¼Ò
2024.10.14(¿ù) ~ 2024.10.17(¸ñ) ½ÅûÇϱ⠱³À°Àå¼Ò ºÐ´ç±³À°¼¾ÅÍ
°úÁ¤°³¿ä

ÆÄÀ̽ãÀ» »ç¿ëÇؼ­ ±¸±Û ÅÙ¼­ÇÃ·Î¿ì ¸Ó½Å·¯´× ¶óÀ̺귯¸®¸¦ µö·¯´×¿¡ Àû¿ëÇÏ´Â °úÁ¤ÀÔ´Ï´Ù. 50%ÀÇ µö·¯´× ÀÌ·Ð ¼³¸í°ú 50%ÀÇ ÆÄÀ̽ã ÅÙ¼­ÇÃ·Î¿ì ±¸ÇöÀ» ÅëÇØ ½Çµ¥ÀÌÅÍ¿¡ µö·¯´×À» Àû¿ëÇÏ´Â ¹æ¹ý¿¡ ´ëÇØ ±íÀÌ ÀÖ´Â ¼ö¾÷À» ÁøÇàÇÕ´Ï´Ù. ÆÄÀ̽㠹®¹ýÀ» º°µµ·Î ¼³¸íÇÏÁö´Â ¾Ê°í, ¼ö¾÷ Áß¿¡ µîÀåÇÏ´Â ºÎºÐ¿¡ ´ëÇؼ­¸¸ ÇÊ¿äÇÒ °æ¿ì Á¦ÇÑÀûÀ¸·Î ¼³¸íÇÔÀ¸·Î½á ÃÖ´ëÇÑÀÇ ½Ã°£À» µö·¯´×¿¡ ÁýÁßÇÕ´Ï´Ù. ÇÁ·Î±×·¡¹Ö¿¡ ´ëÇÑ °æÇèÀÌ ¸¹Áö ¾Ê¾Æµµ ÃæºÐÈ÷ ¼ö°­ÇÒ ¼ö ÀÖ´Â Á¤µµÀÇ ³­À̵µ·Î ÁøÇàµÇ´Â °úÁ¤ÀÔ´Ï´Ù.

* ½Ç½Àȯ°æ : À©µµ¿ì ¿î¿µÃ¼Á¦, ÆÄÀ̽ã, ÆÄÀÌÂü, ÅÙ¼­Ç÷οì


ƯÀÌ»çÇ×

±³À°¸ñÀû

- ÅÙ¼­ÇÃ·Î¿ì ±âº» »ç¿ë¹ýÀ» ºñ·ÔÇÑ ÇÙ½É ±â¼ú¿¡ ´ëÇØ ¹è¿ï ¼ö ÀÖ½À´Ï´Ù.
- µö·¯´× ¾Ë°í¸®Áò¿¡ ÅÙ¼­Ç÷ο츦 Àû¿ëÇÏ´Â ¹æ¹ý¿¡ ´ëÇØ ¹è¿ï ¼ö ÀÖ½À´Ï´Ù.
- °³ÀÎ ¶Ç´Â ȸ»ç°¡ °®°í ÀÖ´Â ½Çµ¥ÀÌÅ͸¦ ÅÙ¼­Ç÷οì¿Í ¿¬µ¿Çؼ­ °¡½ÃÀûÀÎ ¼º°ú¸¦ °ÅµÑ ¼ö ÀÖ½À´Ï´Ù.

±³À°´ë»ó

- ÆÄÀ̽㠱âÃÊ ¹®¹ýÀ» °æÇèÇÑ ÀûÀÌ ÀÖ´Â »ç¶÷
- ÆÄÀ̽ã ÀÌ¿ÜÀÇ ÇÁ·Î±×·¡¹Ö ¾ð¾î¸¦ »ç¿ëÇØ º» °æÇèÀÌ ÀÖ´Â »ç¶÷


±³À°³»¿ë

±¸ºÐ

¸ñÂ÷¼¼ºÎ³»¿ë
1ÀÏÂ÷

- Overview

- °³¹ßȯ°æ ±¸Ãà

- ¸Ó½Å·¯´×, µö·¯´× °³³ä Á¤¸® ¹× ºñ±³

- Cost function, Gradient Descent Algorithm ÀÌ·Ð ¹× ±¸Çö

- ÅÙ¼­ÇÃ·Î¿ì »ç¿ë¹ý



2ÀÏÂ÷

- Regression

- ÅÙ¼­ÇÃ·Î¿ì ±â¹ÝÀÇ Cost function, Gradient Descent

Algorithm

- Linear Regression

- Multi-Variable Linear Regression

- Tree µ¥ÀÌÅͼÂÀ» ÅëÇÑ Linear Regression °ËÁõ



3ÀÏÂ÷

- Classification

- Data Preprocessing

- Logistic Classification

- SoftMax, Cross-Entropy

- Iris µ¥ÀÌÅͼÂÀ» ÅëÇÑ SoftMax °ËÁõ



4ÀÏÂ÷

- CNN

- Stochastic Gradient Descent Algorithm, Mini-Batch

- MNIST µ¥ÀÌÅͼÂÀ» È°¿ëÇÑ À̹ÌÁö ºÐ·ù

- Convolutional Neural Network ÀÌ·Ð ¹× ±¸Çö

- Leaf µ¥ÀÌÅͼÂÀ» ÅëÇÑ CNN °ËÁõ





ÆäÀ̽ººÏÆ®À§Åͱ¸±ÛÁñ°Üã±âÀ̸ÞÀÏ

È®ÀÎ