<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Yksityisyys ja synteettinen data arkistot - Dataliteracy</title>
	<atom:link href="https://www.datalit.fi/kategoria/yksityisyys-ja-synteettinen-data/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.datalit.fi/kategoria/yksityisyys-ja-synteettinen-data/</link>
	<description></description>
	<lastBuildDate>Tue, 07 Nov 2023 07:14:27 +0000</lastBuildDate>
	<language>fi</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.datalit.fi/wp-content/uploads/2021/04/cropped-Datalit_fav-32x32.jpg</url>
	<title>Yksityisyys ja synteettinen data arkistot - Dataliteracy</title>
	<link>https://www.datalit.fi/kategoria/yksityisyys-ja-synteettinen-data/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Synteettinen data yhteiskunnassa</title>
		<link>https://www.datalit.fi/synteettinen-data/</link>
		
		<dc:creator><![CDATA[Karoliina Snell]]></dc:creator>
		<pubDate>Tue, 05 Sep 2023 09:39:30 +0000</pubDate>
				<category><![CDATA[Julkinen sektori datan hyödyntäjänä]]></category>
		<category><![CDATA[Oikeudelliset ja eettiset vaatimukset datan käytölle]]></category>
		<category><![CDATA[Tapahtumat]]></category>
		<category><![CDATA[Yksityisyys ja synteettinen data]]></category>
		<guid isPermaLink="false">https://www.datalit.fi/?p=239947</guid>

					<description><![CDATA[<p>Synteettinen data yhteiskunnassa – Voiko väestöä simuloida?  Keskustelutilaisuus maanantaina 9.10. klo 13-15 Tiedekulmassa Linkki keskustelun tallenteeseen Mitä on synteettinen data?  Synteettinen data tarkoittaa keinotekoisesti luotua dataa &#8211; eli vaihtoehtoa todelliselle datalle. Synteettinen data voidaan tehdä vastaamaan tilastollisesti alkuperäistä aineistoa, mutta niin että yksilötasolla data ei kuitenkaan vastaa yksittäisen henkilön tietoja. Synteettistä dataa voidaan hyödyntää esimerkiksi [&#8230;]</p>
<p>Artikkeli <a href="https://www.datalit.fi/synteettinen-data/">Synteettinen data yhteiskunnassa</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1><b><span data-contrast="auto" data-wp-editing="1">Synteettinen data yhteiskunnassa – </span></b><b><span data-contrast="auto">Voiko väestöä simuloida?</span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:259}"> </span></h1>
<p>Keskustelutilaisuus maanantaina 9.10. klo 13-15 Tiedekulmassa</p>
<p><a href="https://tiedekulmamedia.helsinki.fi/fi/web/tiedekulma/player/webcast?eventId=256001256"><strong>Linkki keskustelun tallenteeseen</strong></a></p>
<p><strong>Mitä on synteettinen data? </strong></p>
<p><span data-contrast="auto">Synteettinen data tarkoittaa keinotekoisesti luotua dataa &#8211; eli vaihtoehtoa todelliselle datalle. Synteettinen data voidaan tehdä vastaamaan tilastollisesti alkuperäistä aineistoa, mutta niin että yksilötasolla data ei kuitenkaan vastaa yksittäisen henkilön tietoja. </span><span data-contrast="auto">Synteettistä dataa voidaan hyödyntää esimerkiksi käsiteltäessä väestö- ja terveystietoja sekä muita arkaluonteisia henkilötietoja.</span><span data-ccp-props="{&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:0,&quot;335551620&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:257}"><strong> </strong></span></p>
<p><span data-ccp-props="{&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:0,&quot;335551620&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:257}"><strong>Entä miten hyvin väestöä voi simuloida? Mitä ovat synteettisen datan tekniset, eettiset ja oikeudelliset haasteet? Miten sitä voidaan hyödyntää tutkimuksessa ja päätöksenteossa? Suojaako synteettinen data yksityisyyttä?</strong><br />
</span></p>
<h2>Tule mukaan keskustelmaan</h2>
<h3>Ohjelma:</h3>
<p class="x_MsoNormal"><span class="x_ContentPasted1">13.00 Tilaisuus alkaa: Antti Honkelan puheenvuoro</span><span class="x_ContentPasted1"><br />
</span><span class="x_ContentPasted1">13.15 Puhujien alustukset</span><span class="x_ContentPasted1"><span class="x_Apple-converted-space x_ContentPasted1"> </span><br />
</span><span class="x_ContentPasted1">13.45 Keskustelutilaisuus </span><span class="x_ContentPasted1"><br />
</span><span class="x_ContentPasted1">14.30 Yleisön kysymykset</span><span class="x_ContentPasted1"><br />
</span><span class="x_ContentPasted1">15.00 Tilaisuus päättyy</span><span class="x_ContentPasted1"><span class="x_Apple-converted-space x_ContentPasted1"> </span> </span></p>
<p>&nbsp;</p>
<p>Asiantuntijoina keskustelussa:</p>
<p><strong>Antti Honkela</strong>, Helsingin yliopisto, Datatieteen professori</p>
<blockquote><p><b><span data-contrast="auto" data-wp-editing="1"><img loading="lazy" decoding="async" class="wp-image-239985 alignleft" src="https://www.datalit.fi/wp-content/uploads/2023/10/antti-honkela-web.jpg" alt="" width="162" height="108" /></span></b><em>Antti </em><b></b><em>Honkela on datatieteen (koneoppiminen ja tekoäly) professori Helsingin yliopiston Tietojenkäsittelytieteen osastolla. Hänen tutkimusalaansa on yksityisyyden turvaava koneoppiminen. Hän vetää Suomen tekoälykeskus (FCAI) lippulaivassa “Privacy-preserving and Secure AI” -tutkimusohjelmaa sekä EU:n E</em><em>uropean Lighthouse in Secure and Safe AI (ELSA) Network of Excellence:ssä “Privacy and infrastructures” -työpakettia. H</em><em>onkela on asiantuntijana Sosiaali- ja terveysalan tietolupaviranomaisen Findatan tietosuojan asiantuntijaryhmässä sekä Findatan ohjausryhmässä.</em></p></blockquote>
<p><strong>Arho Virkki</strong>, Auria Tietopalvelut, Analytiikkajohtaja</p>
<blockquote>
<p style="font-weight: 400;"><em><img loading="lazy" decoding="async" class=" wp-image-239983 alignleft" src="https://www.datalit.fi/wp-content/uploads/2023/10/arho_virkki_hires.jpg" alt="" width="128" height="128" />Analytiikkajohtaja Arho Virkki, DI, FT johtaa Varsinais-Suomen hyvinvointialueen Tutkimuksen ja opetuksen tietopalvelu Auriaa, sekä on lääketieteellisen matematiikan dosentti Turun Yliopistossa. Hän on väitellyt Turun yliopistosta vuonna 2007 ja on toiminut sen jälkeen tutkijana Turun yliopistossa sekä VTT:llä. Arholla yli 20 vuoden kokemus data-analyysistä ja ammattimaisesta tietotuotannosta. Hän on nykyisin kiinnostunut erityisesti tilastollisesta tietosuojasta, tiedonlouhinnasta ja päätöksenteon matemaattisesta mallintamisesta.</em></p>
</blockquote>
<p><strong>Niina Lesonen</strong>, Tilastokeskus, Yliaktuaari</p>
<blockquote>
<p style="font-weight: 400;"><em><img loading="lazy" decoding="async" class=" wp-image-239981 alignleft" src="https://www.datalit.fi/wp-content/uploads/2023/10/DSC09452.jpg" alt="" width="138" height="112" />Yliaktuaari Niina Lesonen työskentelee Tilastokeskuksen Tutkijapalveluissa tutkijoille tärkeän valmisaineistokirjaston tuoteomistajana. Hän on koulutukseltaan filosofian maisteri ja työskennellyt vuosia ympäristötilinpidon kehittämistehtävissä sekä lähimenneisyydessä Tilastokeskuksen koneoppimis-tiimissä.</em></p>
</blockquote>
<p>&nbsp;</p>
<p><strong>Samu Kurki</strong>, Bayer, Strategic project leader, Data Scientist</p>
<blockquote>
<p style="font-weight: 400;"><em><img loading="lazy" decoding="async" class=" wp-image-239979 alignleft" src="https://www.datalit.fi/wp-content/uploads/2023/10/SK.jpg" alt="" width="130" height="130" />Strategic Project Lead Samu Kurki työskentelee Bayerilla data-analyytikkona.<br />
</em><em> Bayerilla rekistereistä löytyvää terveysdataa käytetään tukemaan ja nopeuttamaan lääkekehitystä eri tavoin. Lisäksi Bayer kehittää edistyneitä menetelmiä datan hyödyntämiseen.</em></p>
</blockquote>
<p>&nbsp;</p>
<p><strong>Marjut Salokannel</strong>, Helsingin yliopisto, oikeustiede, Tutkimusjohtaja</p>
<blockquote>
<p style="font-weight: 400;"><em><img loading="lazy" decoding="async" class=" wp-image-238451 alignleft" src="https://www.datalit.fi/wp-content/uploads/2021/05/MarjutSalokannel6750pbw1.jpg" alt="" width="117" height="143" />Marjut Salokannel, OTT, dosentti on tutkimusjohtajana Suomen Akatemian DataLiteracy projektissa. Hänen nykyinen tutkimuksensa keskittyy arkaluonteisten henkilötietojen, mukaan luettuna terveystiedot, käsittelyn sääntelyyn, vaikutuksiin ja mahdollisuuksiin  muuttuvassa eurooppalaisessa dataympäristössä.</em></p>
</blockquote>
<p>&nbsp;</p>
<p>Keskustelua juontaa <strong>Karoliina Snell</strong> (Helsingin yliopisto)</p>
<p>&nbsp;</p>
<p>Keskustelun järjestävät <a href="https://www.datalit.fi/">DataLit</a> ja<a href="https://fcai.fi/"> FCAI </a>yhteistyössä Tiedekulman kanssa (Yliopistonkatu 4, 00100 Helsinki)</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Artikkeli <a href="https://www.datalit.fi/synteettinen-data/">Synteettinen data yhteiskunnassa</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Tietosuoja ja muut perusoikeutemme tietoyhteiskunnassa? &#8211; keskustelutilaisuus</title>
		<link>https://www.datalit.fi/tietosuoja-keskustelu/</link>
		
		<dc:creator><![CDATA[Aura Savolainen]]></dc:creator>
		<pubDate>Mon, 24 Apr 2023 10:02:25 +0000</pubDate>
				<category><![CDATA[Iso tapahtuma]]></category>
		<category><![CDATA[Oikeudelliset ja eettiset vaatimukset datan käytölle]]></category>
		<category><![CDATA[Uutiset]]></category>
		<category><![CDATA[Yksityisyys ja synteettinen data]]></category>
		<guid isPermaLink="false">https://www.datalit.fi/?p=239896</guid>

					<description><![CDATA[<p>Tervetuloa DataLit -tutkimusprojektin ja Suomen valtiosääntöoikeudellisen seuran järjestämään keskustelutilaisuuteen Keskiviikko 17.5.2023 klo 13.00-15.00 Tiedekulma Stage, Yliopistonkatu 4, Helsinki.  Tapahtuman linkki Linkki verkkolähetykseen:  https://tiedekulmamedia.helsinki.fi/fi/web/tiedekulma/player/webcast?eventId=234666301  Tietosuoja ja muut perusoikeutemme tietoyhteiskunnassa? Henkilötietojen suojasta tuli perusoikeus yksityisyyden suojan rinnalle EU:n perusoikeuskirjan myötä. EU:n tietosuoja-asetus ja sitä täydentävä kansallinen tietosuojalaki täsmentävät henkilötietojen suojaa sekä vahvistavat tiedollista itsemääräämisoikeutta. Henkilötietojen suoja on kuitenkin [&#8230;]</p>
<p>Artikkeli <a href="https://www.datalit.fi/tietosuoja-keskustelu/">Tietosuoja ja muut perusoikeutemme tietoyhteiskunnassa? &#8211; keskustelutilaisuus</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Tervetuloa DataLit -tutkimusprojektin ja Suomen valtiosääntöoikeudellisen seuran järjestämään keskustelutilaisuuteen</h2>
<p><strong>Keskiviikko 17.5.2023 klo 13.00-15.00</strong><br />
<strong>Tiedekulma Stage, Yliopistonkatu 4, Helsinki.</strong>  <a href="https://helsinginyliopisto.etapahtuma.fi/Kalenteri/Suomi?id=65646" target="_blank" rel="noopener noreferrer" data-auth="NotApplicable" data-safelink="true" data-linkindex="0">Tapahtuman linkki</a></p>
<p><strong>Linkki verkkolähetykseen:</strong>  <a href="https://tiedekulmamedia.helsinki.fi/fi/web/tiedekulma/player/webcast?eventId=234666301">https://tiedekulmamedia.helsinki.fi/fi/web/tiedekulma/player/webcast?eventId=234666301 </a></p>
<h4>Tietosuoja ja muut perusoikeutemme tietoyhteiskunnassa?</h4>
<p class="x_MsoNormal">Henkilötietojen suojasta tuli perusoikeus yksityisyyden suojan rinnalle EU:n perusoikeuskirjan myötä. EU:n tietosuoja-asetus ja sitä täydentävä kansallinen tietosuojalaki täsmentävät henkilötietojen suojaa sekä vahvistavat tiedollista itsemääräämisoikeutta. Henkilötietojen suoja on kuitenkin sovitettava yhteen muiden perusoikeuksien, kuten sananvapauden ja julkisuuden, sekä turvallisuuden ja muiden tärkeiden yhteiskunnallisten intressien kanssa</p>
<p class="x_MsoNormal">Datalit -tutkimusprojektin ja Suomen valtiosääntöoikeudellisen seuran järjestämässä keskustelutilaisuudessa eturivin tietosuoja- ja perusoikeusasiantuntijat pohtivat muun muassa seuraavia kysymyksiä: Miten tietosuojasääntelyn ja tiedollisen itsemääräämisoikeuden vahvistuminen haastavat käsityksiämme perusoikeuksista ja niiden keskinäissuhteista? Mikä on henkilötietojen ja yksityiselämän suojan suhde muihin perusoikeuksiin nykyaikaisessa tietoyhteiskunnassa? Mitä haasteita digitalisaatio, informaatioteknologia sekä turvallisuusympäristön muutokset merkitsevät tietosuojalle ja muille perusoikeuksillemme?</p>
<h4>Ohjelma:<span class="Apple-converted-space"> </span></h4>
<p><strong>13:00 Tervetuloa ja tilaisuuden avaus</strong></p>
<ul>
<li>Paneelin puheenjohtaja professori <b>Tuomas Ojanen </b>avaa tilaisuuden</li>
<li>Paneelikeskustelun alustus: emeritusprofessori <b>Olli Mäenpää</b>
<ul>
<li><em><em>Tietosuoja vs. Julkisuus</em></em></li>
</ul>
</li>
</ul>
<p><strong>13.20 Panelistien esittelyt</strong></p>
<ul>
<li>Varapuheenjohtaja <b>Elias Aarnio</b>, Effi ry</li>
<li>Tutkimusjohtaja, dosentti <b>Marjut Salokannel </b>Helsingin yliopisto</li>
<li>Professori <b>Susanna Lindroos-Hovinheimo</b>, Helsingin yliopisto</li>
<li>Valiokuntaneuvos <b>Mikael Koillinen</b></li>
<li>Tietosuojavaltuutettu <b><b>Anu Talus</b></b></li>
</ul>
<p><b><b>13.40–14.20 Paneelikeskustelu</b></b></p>
<ul>
<li>Puheenjohtaja moderoi keskustelua</li>
</ul>
<p><strong>14.20 Yleisökysymykset ja keskustelua</strong></p>
<ul>
<li>Puheenjohtaja avaa yleisölle mahdollisuuden esittää kysymyksiä panelisteille</li>
<li>Aikarajojen puitteissa huomioidaan myös chatin kautta tulevat kysymykset</li>
</ul>
<p><b>14.50 Loppusanat ja tilaisuuden päätös</b></p>
<ul>
<li>Paneelin puheenjohtaja kokoaa lyhyesti keskustelun pääkohdat</li>
<li>Tilaisuuden päätös</li>
</ul>
<p>&nbsp;</p>
<p>Artikkeli <a href="https://www.datalit.fi/tietosuoja-keskustelu/">Tietosuoja ja muut perusoikeutemme tietoyhteiskunnassa? &#8211; keskustelutilaisuus</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Tekoälystä tietoturvallista</title>
		<link>https://www.datalit.fi/tekoalysta-tietoturvallista/</link>
		
		<dc:creator><![CDATA[Karoliina Snell]]></dc:creator>
		<pubDate>Wed, 10 Aug 2022 09:48:43 +0000</pubDate>
				<category><![CDATA[Koneoppiminen ja päätelmien luotettavuus]]></category>
		<category><![CDATA[Uutiset]]></category>
		<category><![CDATA[Yksityisyys ja synteettinen data]]></category>
		<guid isPermaLink="false">https://www.datalit.fi/?p=239346</guid>

					<description><![CDATA[<p>Antti Honkela, apulaisprofessori, TkT, Tietojenkäsittelytieteen osasto, Helsingin yliopisto Tämä teksti on julkaistu Eduskunnan tulevaisuusvaliokunnan raportissa Tekoälyratkaisut tänään ja tulevaisuudessa (Tulevaisuusvaliokunta 1/2022). Voit lukea koko raportin täältä. 1 Mistä on kyse? Yleisesti käytössä olevat tietokoneet ja muut tietotekniset laitteet ovat pohjimmiltaan koneita, jotka toistavat niille täsmällisesti ohjelmoituja tietojenkäsittelyoperaatioita erittäin nopeasti. Tekoälyjärjestelmät hyödyntävät näiden laitteiden nopeutta uudenkaltaisissa sovelluksissa, joissa [&#8230;]</p>
<p>Artikkeli <a href="https://www.datalit.fi/tekoalysta-tietoturvallista/">Tekoälystä tietoturvallista</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h6><span style="font-weight: 400;">Antti Honkela, </span><span style="font-weight: 400;">apulaisprofessori, TkT, </span><span style="font-weight: 400;">Tietojenkäsittelytieteen osasto, </span><span style="font-weight: 400;">Helsingin yliopisto</span></h6>
<p><span style="font-weight: 400;">Tämä teksti on julkaistu Eduskunnan tulevaisuusvaliokunnan raportissa </span><i><span style="font-weight: 400;">Tekoälyratkaisut tänään ja tulevaisuudessa</span></i><span style="font-weight: 400;"> (Tulevaisuusvaliokunta 1/2022). Voit lukea koko raportin </span><a href="https://www.eduskunta.fi/FI/valiokunnat/tulevaisuusvaliokunta/julkaisut/Sivut/tekoalyratkaisut-tanaan-ja-tulevaisuudessa.aspx"><span style="font-weight: 400;">täältä</span></a><span style="font-weight: 400;">.</span></p>
<h5><span style="font-weight: 400;">1 Mistä on kyse?</span></h5>
<p><span style="font-weight: 400;">Yleisesti käytössä olevat tietokoneet ja muut tietotekniset laitteet ovat pohjimmiltaan koneita, jotka toistavat niille täsmällisesti ohjelmoituja tietojenkäsittelyoperaatioita erittäin nopeasti. Tekoälyjärjestelmät hyödyntävät näiden laitteiden nopeutta uudenkaltaisissa sovelluksissa, joissa järjestelmän toimintaa ei ole ohjelmoitu yksityiskohtaisesti suoraan vaan esimerkiksi aiemmista esimerkeistä yleistämällä tai monimutkaisen optimointiongelman ratkaisuna. Aiemmista esimerkeistä yleistämiseen perustuva koneoppiminen on mahdollistanut viimeisten kymmenen vuoden aikana valtavia edistysaskelia esimerkiksi konenäössä, puheentunnistuksessa ja luonnollisen kielen ymmärtämisessä ja tuottamisessa tietokoneella.</span></p>
<p><span style="font-weight: 400;">Keskityn kirjoituksessani kolmeen koneoppimiselle ominaiseen turvallisuuskysymykseen: opetusaineiston tietosuojaan ja yksityisyyden suojaan, tekoälyjärjestelmien tietoturvaan sekä järjestelmien turvallisuuteen vuorovaikutuksessa ihmisten kanssa. Samoja riskejä käsitellään tarkemmin Liikenne- ja viestintävirasto Traficomin tuoreessa selvityksessä.<sup><a href="#footnote"> ¹ </a> </sup></span></p>
<p><span style="font-weight: 400;">Koneoppimista käyttävien tekoälyjärjestelmien kehittämisessä tarvitaan suuria opetusaineistoja. Monet kiinnostavat tekoälyn sovellukset esimerkiksi terveydenhuollossa liittyvät ihmisiin, jolloin tarvittavat opetusaineistot sisältävät henkilötietoja. Näiden aineistojen keräämiseen ja käsittelyyn sekä niistä johdettujen järjestelmien käyttöön liittyy tietosuojariskejä, ja ne saattavat loukata aineiston kohteiden yksityisyyttä.</span></p>
<p><span style="font-weight: 400;">Tekoälyjärjestelmät ovat tietojärjestelmiä. Kuten kaikissa tietojärjestelmissä, niissä voi olla tietoturvaheikkouksia. Tämä pitää huomioida, jos niitä käytetään turvattomassa ympäristössä, kuten internetissä, tai jos epäluotettavilla tahoilla on mahdollisuus manipuloida niiden kehittämisessä käytettyjä opetusaineistoja tai muita syötteitä.</span></p>
<p><span style="font-weight: 400;">Tekoälyjärjestelmien ”älykkyys” poikkeaa merkittävästi ihmisen älykkyydestä. Ne voivat tehdä systemaattisesti ihmisen näkökulmasta järjettömiltä vaikuttavia virheitä. Sovelluksissa, joissa virheistä voi olla merkittävää haittaa tai vaaraa, onkin tärkeää rakentaa mekanismeja näiden riskien ehkäisemiseksi hyödyntämällä esimerkiksi ihmisen valvontaa.</span></p>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">1.1 Tekoäly ja tietosuoja sekä yksityisyyden suoja</span></h6>
<p><span style="font-weight: 400;">Tyypillinen oppiva tekoälyjärjestelmä kuvaa syötteitä vasteille, esimerkiksi kuvan tiedoksi siinä näkyvistä liikennemerkeistä tai henkilön terveystiedot arvioksi nykyisestä tai ennusteeksi tulevasta terveydentilasta.</span></p>
<p><span style="font-weight: 400;">Tällaisten järjestelmien rakentamiseen tarvitaan suuria esimerkkiaineistoja esimerkiksi suuren ihmisjoukon terveystiedoista ja havaitusta terveydentilasta, joista järjestelmä oppii näiden välisen yhteyden. Monissa kiinnostavissa sovelluksissa tarvittavat aineistot sisältävät henkilötietoja, kuten arkaluontoisia terveystietoja. Näiden käsittelyyn liittyy useita tietosuojariskejä, joita ei voida poistaa helposti esimerkiksi poistamalla tiedoista suorat tunnisteet:</span></p>
<ol>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Jos aineisto kerätään yhteen tietokantaan, riski tietojen paljastumiseksi kasvaa, mikäli tietokannan suojaus pettää.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Aineiston osia voi paljastua järjestelmän opetuksen aikana opetukseen osallistuville ulkopuolisille tahoille.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Osia aineistosta voi olla mahdollista selvittää valmiiksi opetetusta järjestelmästä.</span></li>
</ol>
<p><span style="font-weight: 400;">Kuvattuja riskejä voidaan ehkäistä erilaisin teknisin ratkaisuin. Järjestelmiä on mahdollista opettaa käyttämällä hajautettua dataa, jolloin vältetään keskitettyyn tietokantaan liittyviä riskejä. Esimerkiksi Google ja Apple ovat opettaneet mobiilikäyttöjärjestelmiinsä käyttäjien kirjoituksia hyödyntäviä malleja, joiden opetuksessa käytetty data on pysynyt käyttäjien laitteilla eikä ole paljastunut edes mallin kehittäjille. Samaa periaatetta voidaan hyödyntää esimerkiksi silloin, kun yhdistetään terveystietoja eri maista, jos esimerkiksi lainsäädäntö ei salli datan luovutusta. ”</span><b>Algoritmi tulee datan luo</b><span style="font-weight: 400;">” olisikin usein hyvä periaate parantamaan tietosuojaa.</span></p>
<p><span style="font-weight: 400;">Aineiston paljastumista opetuksen aikana voidaan estää salausmenetelmiä käyttämällä. Sopivilla menetelmillä on mahdollista opettaa järjestelmä salattua dataa käyttämällä siten, että kehittäjä ei voi nähdä dataa. Hintana näillä ratkaisuilla on usein se, että järjestelmän opettamiseen tarvittava laskenta-aika on merkittävästi suurempi.</span></p>
<p><span style="font-weight: 400;">Aineiston paljastuminen valmiista järjestelmästä on hankalampi ongelma, johon perinteiset salausmenetelmät eivät pure. Eduskunnan tulevaisuusvaliokunnassa esiintyi hiljattain GPT-3-malliin pohjautuva tekstiä tuottava tekoälyjärjestelmä. Tutkijat ovat osoittaneet, että GPT-3:n edeltäjä GPT-2 on mahdollista houkutella toistamaan täydellinen kopio opetusaineistossa esiintyneistä henkilötiedoista.<a href="#footnote"> ² </a> Sama ilmiö on havaittu muillakin testatuilla järjestelmillä. Ilmiötä voidaan estää hyödyntämällä differentiaalista tietosuojaa, mutta hintana on usein se, että mallin tarkkuus heikkenee. Ilmiön tarkempaan ymmärtämiseen tarvitaan lisätutkimusta. </span><b>Henkilötietoja tai muita luottamuksellisia tietoja käyttämällä opetettujen tekoälyjärjestelmien jakamisessa on kuitenkin syytä olla varovainen.</b></p>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">1.2 Tekoälyn tietoturva</span></h6>
<p><span style="font-weight: 400;">Tekoälyjärjestelmät ovat tietojärjestelmiä ja siten alttiita samoille tietoturvariskeille kuin muutkin tietojärjestelmät. Erityisesti opetettaviin järjestelmiin liittyy lisäksi niille ominaisia riskejä, joista on seuraavassa muutama esimerkki:</span></p>
<ol>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Opetusaineistoa manipuloimalla järjestelmän kehittäjä tai ulkopuolinen hyökkääjä voi upottaa järjestelmään takaoven, jota on käytännössä mahdoton havaita mutta joka saa järjestelmän toimimaan valituissa tilanteissa hyökkääjän haluamalla tavalla. Esimerkiksi hakemusten käsittelyyn käytetty järjestelmä voitaisiin manipuloida hyväksymään tai hylkäämään aina hakemukset, joissa on tietty harmittomalta vaikuttava avainsana tai muu piirre.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Valmiista tekoälyjärjestelmästä on mahdollista löytää heikkouksia, joissa jopa ihmiselle huomaamattomat muutokset saavat järjestelmän toimimaan täysin eri tavalla. Tutkijat ovat kehittäneet esimerkiksi liikennemerkkeihin kiinnitettäviä tarroja, jotka eivät erityisesti häiritse ihmistä mutta joiden takia liikennemerkkien tunnistukseen käytetyt järjestelmät alkavat luulla stop-merkkiä nopeusrajoituksen merkiksi.<a href="#footnote"> ³ </a> Muiltakin aloilta on vastaavia esimerkkejä siitä, miten on mahdollista tietoisesti kehittää tapoja, jotka eivät hämäisi ihmistä mutta joilla tekoälyä on mahdollista huijata.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Mikäli järjestelmä oppii adaptiivisesti toiminnan aikana, käyttäjät voivat ohjata sen toimintaa epätoivottuun suuntaan. Esimerkiksi sosiaalisen median keskusteluista oppinut Microsoftin Twitter-botti muuttui alle vuorokaudessa ystävällisestä aggressiiviseksi rasistiksi muiden käyttäjien manipuloinnin vuoksi.<a href="#footnote"> ⁴ </a></span></li>
</ol>
<p><span style="font-weight: 400;">Yllä kuvattuja riskejä voidaan ehkäistä yhdistelmällä teknisiä ja järjestelmätason ratkaisuja. </span><b>Tehokkain tapa ehkäistä opetusaineiston manipulointia on käytetyn aineiston tarkka laadunvalvonta. Valmiin järjestelmän käytössä tämä ei ole yhtä helppoa, jolloin on tärkeää lisäksi vahvistaa järjestelmää niin, että se ei olisi niin altis huijausyrityksille</b><span style="font-weight: 400;"> (vrt. liikennemerkkeihin liimattavat tarrat edellä). Järjestelmien vahvistamiseen soveltuvat teknologiat ovat tällä hetkellä hyvin aktiivisen tutkimuksen kohteena, eikä ole vielä selvää, mikä on lopulta mahdollista ja mikä ei. Kuten monessa turvallisuuskysymyksessä, tässäkin on riskinä hyökkääjien ja puolustajien välinen varustelukilpailu, jossa kehittyneempää puolustusjärjestelmää seuraa sen kiertävä uusi, vielä edistyneempi hyökkäys.</span></p>
<p><span style="font-weight: 400;">Useimmat koneoppimiseen pohjautuvat tekoälyjärjestelmät eivät opi enää käytön aikana. Tämä toisaalta helpottaa niiden toiminnan ymmärtämistä, toisaalta rajoittaa mahdollisuuksia sopeutua muuttuvaan ympäristöön. Käytön aikana tapahtuvan oppimisen </span><span style="font-weight: 400;">turvallisuus on toistaiseksi hyvin nuori tutkimusala. Tehokkaita ratkaisuja tämän alueen ongelmiin saadaan todennäköisesti odottaa vielä useita vuosia.</span></p>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">1.3 Ihminen tekoälyn valvojana ja yhteistyökumppanina</span></h6>
<p><span style="font-weight: 400;">Tekoälyjärjestelmiä käytetään yhä enemmän sovelluksissa, joilla on merkittäviä vaikutuksia esimerkiksi ihmisten talouteen, hyvinvointiin ja terveyteen. Turvallinen tekoäly vaatii mekanismeja, joilla varmistetaan, että nämä vaikutukset eivät ole haitallisia. Nämä kysy</span><span style="font-weight: 400;">mykset ovat läheisessä yhteydessä tekoälyn vastuullisuuteen ja etiikkaan, mutta osa kysymyksistä liittyy myös turvallisuuteen: miten hallitaan autonomisten ajoneuvojen liikenneturvallisuusriskejä tai varmistetaan, ettei tekoälyn ehdottama hoitotoimenpide aiheuta tarpeetonta vaaraa?</span></p>
<p><span style="font-weight: 400;">Tekoälyjärjestelmille ja ihmisille on yhteistä se, että molemmat tekevät virheitä ja erehdyksiä. Tekoälyn ja ihmisten tekemät virheet ovat kuitenkin usein erilaisia, jolloin niitä voidaan ehkäistä koneen ja ihmisen yhteistyöllä. Matkalla on monta haastetta:</span></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Miten selitetään koneen toimintaa ihmiselle niin, että tämä voi sitä arvioida ja havaita mahdollisia ongelmia?</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Miten kehittää järjestelmiä, jotka ovat ihmiselle helpommin ymmärrettäviä, menettämättä niiden tehokkuutta?</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Miten rakennetaan ihmiselle mahdollisuus valvoa koneen toimintaa niin, että tehtävä pysyy mielekkäänä ja ihminen pystyy oikeasti puuttumaan toimintaan tarpeen vaatiessa riittävän nopeasti?</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Miten järjestetään ihmisohjaus menettämättä liikaa koneen tehokkuushyötyjä?</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Miten koulutetaan ihmisiä seuraamaan koneiden toimintaa tehokkaasti?</span></li>
</ul>
<p><b>Kuten tavalliset tietojärjestelmät, tekoälyjärjestelmät eivät opi virheistään, ellei niitä ole erityisesti siihen suunniteltu.</b><span style="font-weight: 400;"> Yleisin tapa korjata virheitä on uuden version julkaisu ja käyttöönotto. Tämä rajoittaa mahdollisuuksia nopeaan reagointiin, erityisesti jos käyt</span><span style="font-weight: 400;">täjä ja kehittäjä ovat erillisiä tahoja. Aiemmin mainittu aktiivinen oppiminen käytön aikana mahdollistaisi teoriassa nopeamman reagoinnin, mutta näiden menetelmien turvallisuudessa on vielä paljon avoimia ongelmia.</span></p>
<p>&nbsp;</p>
<h5><span style="font-weight: 400;">2 Tekoäly muutosvoimana</span></h5>
<p><span style="font-weight: 400;">Erilaiset tekoälyjärjestelmät ovat viime vuosina tulleet yhä enemmän osaksi ihmisten arkea erilaisissa nettipalveluissa ja elektronisissa laitteissa. Niiden yleistymisen voi olettaa jatkuvan ja laajenevan uusille aloille. Paljon potentiaalia on esimerkiksi terveydenhuollossa. Toimiessaan nämä järjestelmät sujuvoittavat arkea ja tehostavat palveluita, mutta samalla ne luovat uusia turvallisuusuhkia.</span></p>
<p><span style="font-weight: 400;">Tekoälyjärjestelmät ovat ensisijaisesti tietojärjestelmiä, ja näihin molempiin pätevät monet samat lainalaisuudet. Perinteisten tietojärjestelmien turvallisuudesta muodostuu valitettavan usein ”kisa pohjalle”, jossa järjestelmien rakentajat kilpailevat kustannuksia leikatakseen säästämällä turvallisuudesta, koska ostajat eivät osaa sitä vaatia eivätkä ole valmiita siitä maksamaan.</span><b> Yksi osa ongelmaa on se, että turvallisuuden puutteet koituvat usein muiden vahingoksi. Kuinka moni auton ostaja olisi vapaaehtoisesti valmis maksamaan enemmän autosta, joka olisi kolaritilanteessa turvallisempi muille, esimerkiksi jalankulkijoille?</b></p>
<p><span style="font-weight: 400;">Turvallisuuteen liittyvissä sovelluksissa hyökkääjän ja puolustajan välille muodostuu helposti varustelukierre, jossa paremman puolustuksen hyöty häviää paremman hyökkäyksen edessä, mikä edellyttää vielä parempaa puolustusta ja niin edelleen. Tällaisia kierteitä voi syntyä myös silloin, kun tekoälyn antamaa turvaa murretaan ja puolustetaan. Tekoäly on vahva työkalu kisan molemmilla puolilla, jolloin molempien osapuolten voi olla käytännössä pakko hyödyntää sitä pärjätäkseen kilpailussa. Tieteellinen perustutkimus voi joissain tilanteissa tarjota ulospääsyn varustelukierteestä. </span><b>Esimerkiksi differentiaalista tietosuojaa käyttämällä voidaan todistaa matemaattisesti, että yksikään hyökkääjä ei voi loukata käyttäjien tietosuojaa, vaikka tämä käyttäisi mitä tahansa tulevaisuuden teknologiaa.</b><span style="font-weight: 400;"> Vastaavasti tekoälyjärjestelmien huijaamista tai kiertämistä vastaan kehitetään teknologioita, joilla voidaan todistaa mallin kestävän varmasti tiettyjä manipulaatioita.</span></p>
<p><span style="font-weight: 400;">Turvallisten tekoälyteknologioiden kehitys tuottaa todennäköisesti tulevaisuudessa helppokäyttöisiä työkaluja, joilla järjestelmien turvallisuutta voidaan vahvistaa ja varmistaa. </span><b>Turvallisen tekoälyn käytössä tullaan kuitenkin todennäköisesti törmäämään vaikeisiin arvovalintoihin, koska valinnoilla on hin</b><span style="font-weight: 400;">tansa. Tietosuojaa kunnioittava tai manipulaatioita kestävä järjestelmä tuottaa usein optimiolosuhteissa vähemmän tarkkoja ennusteita, jolloin järjestelmän tuottama hyöty pienenee. </span><b>Mikä pahempaa, tämä tarkkuuden lasku vaikuttaisi kohdistuvan helposti voimakkaampana vähemmistöihin ja yleensä enemmistöstä poikkeaviin yksilöihin, mikä voi loukata yhdenvertaisuutta.</b><span style="font-weight: 400;"> Näiden eri arvojen yhteensovittamisesta tarvitaan vilkasta yhteiskunnallista keskustelua, ettei ongelmien ratkaisu jää yksin teknologian kehittäjien vastuulle. Yhteensovittamisessa on paljonkin pelivaraa, koska turvallisuus ei ole päällä tai poissa -tyyppinen ominaisuus, vaan useimmissa teknologioissa on mahdollista säätää suojan tasoa ja siten myös kustannuksia ja sivuvaikutuksien voimakkuutta.</span></p>
<p>&nbsp;</p>
<h5><span style="font-weight: 400;">3 Viestit päättäjille ja kansalaisille</span></h5>
<p><span style="font-weight: 400;">Tietoturvan ja -suojan sääntely on tietoyhteiskunnan ympäristönsuojelua. Koska kustannukset kohdistuvat ulkopuolisiin, markkinat eivät sitä ratkaise, vaan tarvitaan ulkopuolista ohjausta ja sääntelyä.</span></p>
<p><span style="font-weight: 400;">Turvallisen ja eettisen tekoälyn toivottavat ominaisuudet voivat olla ristiriitaisia, jolloin yhden toteuttaminen heikentää muita. Ominaisuudet eivät ole mustavalkoisesti päällä tai poissa, vaan niiden välistä tasapainoa voi yleensä säätää tarkemmin. Tarvitaan sopivasti vapautta ja sääntöjä, jotta löydetään kuhunkin sovellukseen paras ratkaisu. Samalla pitää varmistaa, että tasapainoa muodostettaessa huomioidaan myös muiden kuin järjestelmän kehittäjän ja omistajan etu.</span></p>
<p><span style="font-weight: 400;">Valmiista tekoälyjärjestelmästä on mahdoton todentaa, toimiiko se joka tilanteessa oikein eikä esimerkiksi sisällä piilotettua takaovea. Luotettavuuden varmistamiseksi on siksi tärkeää varmistaa prosessi, jolla järjestelmä on rakennettu.</span></p>
<p><span style="font-weight: 400;">Tekoälyjärjestelmät eivät ole erehtymättömiä, mutta eivät ole ihmisetkään. Näiden kah</span><span style="font-weight: 400;">den tekemät virheet ovat luonteeltaan hyvin erilaisia. Tärkeissä sovelluksissa käytettäviä tekoälyjärjestelmiä tulee valvoa tavalla, joka on tarkoituksenmukainen kyseisessä sovel</span><span style="font-weight: 400;">luksessa eikä turhaan nosta valvonnan kustannuksia mahdollisten virheiden haittoja suuremmiksi.</span></p>
<p><span style="font-weight: 400;">Datan luovuttamisen sijaan kannattaa suosia järjestelmiä, joissa koodi tulee valvotusti datan luo. Esimerkiksi sen sijaan, että terveystietoja luovutettaisiin ulkopuolisille, olisi parempi suosia ratkaisuja, joissa dataa ei luovuteta vaan sen tarvitsijat pääsevät käsittelemään tarvitsemiaan osia turvallisesti suojatussa ympäristössä.</span></p>
<p><span style="font-weight: 400;">Datan keskittämisen sijaan kannattaa mahdollisuuksien mukaan edistää datan hajauttamista tietosuojariskien pienentämiseksi. Suunniteltu kansallinen genomitietorekisteri on esimerkki erittäin suuririskisestä hankkeesta, jonka hyödyistä on erimielisyyttä.</span></p>
<p><span style="font-weight: 400;">Tekoälyn tietoturvan ja tietosuojan osaamista tulee ylläpitää ja kehittää aktiivisesti kaikilla tasoilla. Turvaa ei usein voi lisätä jälkikäteen valmiiseen järjestelmään, joten kehittäjien pitää osata rakentaa se järjestelmän sisään alusta asti, mikä vaatii laajaa koulutusta. Toisaalta tarvitaan uusien, turvallisempien menetelmien tutkimusta. Vain panostamalla alan perustutkimukseen Suomessa voidaan varmistaa paras osaaminen ja korkeatasoisin uusien menetelmien opetus.</span></p>
<div class='et-box et-shadow'>
					<div class='et-box-content'><h5>Tietolaatikko</h5>
<p>Kansalaisten tietosuojan turvaava tietojen jako Yhdysvalloissa järjestetään kymmenen vuoden välein väestönlaskenta (US Census). Laskennan tuloksena julkaistaan tilastoja eri ikä-, etnisiin ja muihin ryhmiin kuuluvista henkilöistä tarkalla maantieteellisellä jaolla. Näitä tilastoja käytetään erilaisiin hallinnollisiin ja tutkimustarkoituksiin. Tietoja on aiemmin suojattu muun muassa korvaamalla pieniä ihmismääriä koskevia tietoja synteettisillä arvoilla. Väestönlaskentaviraston tutkimuksen mukaan näistä suojatoimista huolimatta huomattava osa väestöstä voitiin tunnistaa julkaistuista tiedoista yhdistämällä niitä muihin julkisesti saatavilla oleviin tietoihin.</p>
<p>Uusin vuoden 2020 US Census on ottanut tietojen suojaamisessa käyttöön differentiaalisen tietosuojan, joka perustuu tietojenkäsittelytieteen yksityisyyttä turvaavien teknologioiden tutkimukseen.<a href="#footnote"> ⁵ </a> Differentiaalisen tietosuojan käyttö vähentää huomattavasti tunnistamisriskiä ja parantaa siten selvästi kansalaisten yksityisyyden suojaa. Sen käyttöä on silti myös kritisoitu, koska tietosuojan turvaaminen vaatii lisäämään tuloksiin enemmän satunnaisuutta, mihin tietojen käyttäjät eivät ole tottuneet ja mikä saattaa haitata joidenkin tietojen käytön vakiintuneiden päämäärien saavuttamista.</p>
<p>Differentiaalisen tietosuojan kaltaisten menetelmien käyttö avaa laajemminkin mahdollisuuksia yksityisyyden turvaavaan tietojen jakamiseen. Yhdysvalloissa saatavia kokemuksia on siis syytä seurata. Yksi erityisen kiinnostava mahdollisuus on differentiaalisen tietosuojan yhdistäminen niin sanottuun synteettiseen dataan, jossa esimerkiksi koneoppivan tekoälyn opettamiseen voidaan luoda todellista vastaava keinotekoinen aineisto, joka ei todistettavasti voi loukata kenenkään yksityisyyttä. Näillä menetelmillä on kuitenkin rajoitteensa, ja lisätutkimusta tarvitaan, jotta niiden potentiaali voidaan ymmärtää.</div></div>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">Lähteet</span></h6>
<ol>
<li style="list-style-type: none;">
<ol>
<li id="footnote">A. Vähä-Sipilä, S. Marchal &amp; M. Aksela. <a href="https://www.traficom.fi/fi/julkaisut/tekoalyn-soveltamisen-kyberturvallisuus-ja-riskienhallinta">Tekoälyn soveltamisen kyberturvallisuus </a><a href="https://www.traficom.fi/fi/julkaisut/tekoalyn-soveltamisen-kyberturvallisuus-ja-riskienhallinta">ja riskienhallinta</a>. Traficomin tutkimuksia ja selvityksiä 9/2021</li>
<li><span style="font-weight: 400;"> N. Carlini et al. </span><a href="https://www.usenix.org/conference/usenixsecurity21/presentation/carlini-extracting"><span style="font-weight: 400;">Extracting Training Data from Large Language Models</span></a><span style="font-weight: 400;">. </span>In Proceedings of the 30th USENIX Security Symposium, 2021.</li>
<li><span style="font-weight: 400;"> K. Eykholt et al. </span><a href="https://openaccess.thecvf.com/content_cvpr_2018/papers/Eykholt_Robust_Physical-World_Attacks_CVPR_2018_paper.pdf"><span style="font-weight: 400;">Robust physical-world attacks on deep learning visual classification</span></a><span style="font-weight: 400;">. </span>In Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern <span style="font-weight: 400;">Recognition CVPR 2018). IEEE, 2018.</span></li>
<li><span style="font-weight: 400;"> O. Schwartz. “In 2016, </span><a href="https://spectrum.ieee.org/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation"><span style="font-weight: 400;">Microsoft’s Racist Chatbot Revealed the Dangers of</span></a> <a href="https://spectrum.ieee.org/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation">Online Conversation</a>”. IEEE Spectrum 25.11.2019. Viitattu 26.11.2021. 124</li>
<li><span style="font-weight: 400;"> US Census Bureau. </span><a href="https://www.census.gov/library/publications/2021/decennial/2020-census-disclosure-avoidance-handbook.html"><span style="font-weight: 400;">2020 Census Data Products: Disclosure Avoidance Modernization</span></a><span style="font-weight: 400;">. </span>Viitattu 26.11.2021.</li>
</ol>
</li>
</ol>
<p><span style="font-weight: 400;">Lue koko raportti täältä: Ailisto, Heikki et al.: </span><a href="https://www.eduskunta.fi/FI/valiokunnat/tulevaisuusvaliokunta/julkaisut/Sivut/tekoalyratkaisut-tanaan-ja-tulevaisuudessa.aspx"><span style="font-weight: 400;">Tekoälyratkaisut tänään ja tulevaisuudessa</span></a><span style="font-weight: 400;">. Helsinki, Tulevaisuusvaliokunta, 2022. 183 s. Eduskunnan tulevaisuusvaliokunnan julkaisu 1/2022. </span></p>
<p>Artikkeli <a href="https://www.datalit.fi/tekoalysta-tietoturvallista/">Tekoälystä tietoturvallista</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Puhutko dataa?</title>
		<link>https://www.datalit.fi/puhutko-dataa/</link>
		
		<dc:creator><![CDATA[Karoliina Snell]]></dc:creator>
		<pubDate>Wed, 01 Sep 2021 08:37:37 +0000</pubDate>
				<category><![CDATA[Datan esittäminen ja visualisointi]]></category>
		<category><![CDATA[Koneoppiminen ja päätelmien luotettavuus]]></category>
		<category><![CDATA[Oikeudelliset ja eettiset vaatimukset datan käytölle]]></category>
		<category><![CDATA[Tapahtumat]]></category>
		<category><![CDATA[Uutiset]]></category>
		<category><![CDATA[Yksityisyys ja synteettinen data]]></category>
		<guid isPermaLink="false">https://www.datalit.fi/?p=238534</guid>

					<description><![CDATA[<p>Tiedekulma järjestää ohjelmasarjan Ihmisten tekoäly 21.-30.9.2021, joka koostuu neljästä livestriimistä. DataLitistä keskusteluun osallistuvat Antti Honkela, Anna-Mari Rusanen, Karoliina Snell ja Petri Ylikoski kahdessa eri sessiossa: Kenen tekoäly? 21.9. klo 17 Miten ja kenen ehdoilla tekoälyä kehitetään nyt ja tulevaisuudessa – ja miksi sen pitäisi kiinnostaa meistä jokaista? Voit katsoa ja kuunnella tallenteen: YouTube: https://www.youtube.com/watch?v=TfVJJRjVRR4 Puhutko [&#8230;]</p>
<p>Artikkeli <a href="https://www.datalit.fi/puhutko-dataa/">Puhutko dataa?</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Tiedekulma järjestää ohjelmasarjan <a href="https://www2.helsinki.fi/fi/tiedekulma/ohjelma/ihmisten-tekoaly?utm_source=twitter&amp;utm_medium=organic&amp;utm_campaign=ihmisten_tekoaly"><strong>Ihmisten tekoäly</strong> 21.-30.9.2021</a>, joka koostuu neljästä livestriimistä. DataLitistä keskusteluun osallistuvat Antti Honkela, Anna-Mari Rusanen, Karoliina Snell ja Petri Ylikoski kahdessa eri sessiossa:</p>
<h2><a href="https://www2.helsinki.fi/fi/tiedekulma/kenen-tekoaly">Kenen tekoäly? 21.9. klo 17</a></h2>
<p>Miten ja kenen ehdoilla tekoälyä kehitetään nyt ja tulevaisuudessa – ja miksi sen pitäisi kiinnostaa meistä jokaista?</p>
<p>Voit katsoa ja kuunnella tallenteen:</p>
<p>YouTube: <a href="https://www.youtube.com/watch?v=TfVJJRjVRR4">https://www.youtube.com/watch?v=TfVJJRjVRR4</a></p>
<h2><a href="https://www2.helsinki.fi/fi/tiedekulma/ohjelma/ihmisten-tekoaly/puhutko-dataa">Puhutko dataa? 23.9. klo 17</a></h2>
<p>Maailmamme on täynnä dataa ja algoritmeja – terveyssovelluksista asuntolainahakemuksiin. On aika opetella uusi kansalaistaito: datalukutaito. Tule mukaan opettelemaan uutta kansalaistaitoa!</p>
<p>Voit katsoa ja kuunnella tallenteen:</p>
<p>YouTube: <a href="https://youtu.be/CsVZ0q4xk4E">https://youtu.be/CsVZ0q4xk4E</a></p>
<p>Molemmat keskustelut myös podcasteina Soundcloudissa: <a href="https://soundcloud.com/tiedekulma/puhutko-dataa">https://soundcloud.com/tiedekulma/</a></p>
<p>&nbsp;</p>
<p>Artikkeli <a href="https://www.datalit.fi/puhutko-dataa/">Puhutko dataa?</a> julkaistiin ensimmäisen kerran <a href="https://www.datalit.fi">Dataliteracy</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
