Keuangan Pribadi

Hadoop sebagai mesin pemroses data - dummies

Hadoop sebagai mesin pemroses data - dummies

Salah satu kasus penggunaan paling awal untuk Hadoop di perusahaan itu adalah sebagai mesin transformasi program yang digunakan untuk data preprocessing untuk data warehouse. Intinya, use case ini memanfaatkan kekuatan ekosistem Hadoop untuk memanipulasi dan menerapkan transformasi ke data sebelum dimuat ke gudang data. Meskipun transformasi sebenarnya ...

Hadoop sebagai Arsip Queryable tentang Data Warehouse Ganda

Hadoop sebagai Arsip Queryable tentang Data Warehouse Ganda

Menunjukkan banyak data Di gudang data perusahaan jarang dipertanyakan. Vendor database telah menanggapi pengamatan semacam itu dengan menerapkan metode mereka sendiri untuk memilah data apa yang akan ditempatkan di mana. Salah satu metode memerintahkan alam semesta menjadi sebutan panas, hangat, atau dingin, dimana data panas (kadang-kadang disebut active ...

Hadoop sebagai Data Tujuan Arsip - dummies

Hadoop sebagai Data Tujuan Arsip - dummies

Biaya penyimpanan yang murah untuk Hadoop ditambah kemampuan untuk mengurutkan data Hadoop dengan SQL membuat Hadoop menjadi tujuan utama untuk data arsip. Kasus penggunaan ini berdampak rendah pada organisasi Anda karena Anda dapat mulai membangun keahlian Hadoop Anda pada data yang tidak tersimpan dalam sistem mission-critical. Terlebih lagi, Anda tidak ...

Perintah administrasi hadoop - dummies

Perintah administrasi hadoop - dummies

Setiap administrator Hadoop yang layak mendapatkan garamnya harus menguasai satu set perintah yang komprehensif untuk administrasi klaster. Daftar berikut merangkum perintah yang paling penting, menunjukkan apa perintah yang dilakukan serta sintaks dan contohnya. Kenali mereka, dan Anda akan maju jauh di sepanjang jalan menuju kebijaksanaan Hadoop. Penyeimbang: Menjalankan utilitas penyeimbang cluster. ...

Hadoop Distributed File System (HDFS) untuk Proyek Data Besar - dummies

Hadoop Distributed File System (HDFS) untuk Proyek Data Besar - dummies

Hadoop Distributed File Sistem adalah serbaguna, ulet, pendekatan berkerumun untuk mengelola file dalam lingkungan data yang besar. HDFS bukan tujuan akhir untuk file. Sebaliknya, ini adalah layanan data yang menawarkan seperangkat kemampuan unik yang dibutuhkan saat volume data dan kecepatan tinggi. Karena data ditulis sekali dan ...

Hadoop MapReduce for Big Data - dummies

Hadoop MapReduce for Big Data - dummies

Untuk memahami kemampuan Hadoop MapReduce, penting untuk membedakan antara MapReduce ( algoritma) dan implementasi MapReduce. Hadoop MapReduce adalah implementasi dari algoritma yang dikembangkan dan dikelola oleh proyek Apache Hadoop. Akan sangat membantu untuk memikirkan penerapan ini sebagai mesin MapReduce, karena memang itulah bagaimana ...

Hadoop Rack Considerations

Hadoop Rack Considerations

Prinsip inti Hadoop adalah penskalaan dengan node budak tambahan untuk memenuhi peningkatan penyimpanan data dan -[SET:h1id]Hadoop Rack Considerations

Hadoop Integrasi dengan R - dummies

Hadoop Integrasi dengan R - dummies

Pada awalnya, data besar dan R bukan teman alami. Pemrograman R mengharuskan semua benda dimuat ke memori utama satu mesin. Keterbatasan arsitektur ini cepat terealisasi ketika data besar menjadi bagian dari persamaan. Sebaliknya, sistem file terdistribusi seperti Hadoop hilang kuat ...

Bagaimana Mendapatkan Apache Oozie di Hadoop - dummies

Bagaimana Mendapatkan Apache Oozie di Hadoop - dummies

Apache Oozie disertakan dalam setiap Hadoop utama distribusi, termasuk Apache Bigtop. Di cluster Hadoop Anda, pasang server Oozie di simpul tepi, di mana Anda juga akan menjalankan aplikasi klien lainnya melawan data cluster, seperti yang ditunjukkan. Simpul tepi dirancang untuk menjadi pintu gerbang jaringan luar ke cluster Hadoop. Ini ...

Mengimpor Data dengan Sqoop - dummies

Mengimpor Data dengan Sqoop - dummies

Siap untuk menyelam dalam mengimpor data dengan Sqoop? Mulailah dengan melihat-lihat gambar, yang menggambarkan langkah-langkah dalam operasi impor Sqoop khas dari RDBMS atau sistem data warehouse. Tidak ada yang terlalu rumit disini - hanya tabel data Produk khas dari perusahaan fiktif (khas) yang diimpor menjadi tipikal ...

Mode Terdiri dan Terdistribusi dari Baki Babi yang Terbang di Hadoop - dummies

Mode Terdiri dan Terdistribusi dari Baki Babi yang Terbang di Hadoop - dummies

Sebelum Anda dapat menjalankan yang pertama Skrip babi di Hadoop, Anda perlu memiliki pegangan tentang bagaimana program Babi dapat dikemas dengan server Babi. Babi memiliki dua mode untuk menjalankan skrip: Modus lokal: Semua skrip dijalankan pada satu mesin tanpa memerlukan Hadoop MapReduce dan HDFS. Ini bisa berguna untuk ...

Masukan Splits di Hadoop's MapReduce - dummies

Masukan Splits di Hadoop's MapReduce - dummies

Cara HDFS telah disiapkan, ini memecah file berukuran besar menjadi besar blok (misalnya, berukuran 128MB), dan menyimpan tiga salinan blok ini pada node yang berbeda di cluster. HDFS tidak memiliki kesadaran akan isi file-file ini. Di YARN, saat pekerjaan MapReduce dimulai, Manajer Sumber Daya (the ...

Bergabunglah dengan Meja dengan Hive - dummies

Bergabunglah dengan Meja dengan Hive - dummies

Anda mungkin sudah tahu bahwa para ahli dalam pemodelan dan desain database relasional biasanya menghabiskan banyak dari mereka waktu merancang database yang dinormalisasi, atau skema. Normalisasi database adalah teknik yang menjaga terhadap kehilangan data, redundansi, dan anomali lainnya karena data diperbarui dan diambil. Para ahli mengikuti sejumlah peraturan untuk sampai pada ...

Mengelola Big Data dengan Hadoop: HDFS dan MapReduce - dummies

Mengelola Big Data dengan Hadoop: HDFS dan MapReduce - dummies

Hadoop, kerangka perangkat lunak sumber terbuka , menggunakan HDFS (Hadoop Distributed File System) dan MapReduce untuk menganalisis data besar pada kelompok perangkat keras komoditas - yaitu, dalam lingkungan komputasi terdistribusi. The Hadoop Distributed File System (HDFS) dikembangkan untuk memungkinkan perusahaan lebih mudah mengatur volume data yang besar dengan cara yang sederhana dan pragmatis. Hadoop ...

Kunci Pasangan Nilai dalam Model Data HBase - dummy

Kunci Pasangan Nilai dalam Model Data HBase - dummy

Model data logis HBase sederhana namun elegan, dan menyediakan mekanisme penyimpanan data alami untuk semua jenis data - terutama kumpulan data besar yang tidak terstruktur. Semua bagian dari model data bertemu menjadi pasangan kunci-nilai. Pertama, di dunia di mana Anda bisa memikirkan kunci baris sebagai ...

Jaringan dan cluster Hadoop

Jaringan dan cluster Hadoop

Seperti halnya dengan sistem terdistribusi, jaringan dapat membuat atau menghancurkan cluster Hadoop: Jangan "Pergi murah "Banyak obrolan terjadi antara node induk dan simpul budak dalam kelompok Hadoop yang penting dalam menjaga agar cluster tetap berjalan, sehingga switch kelas enterprise sangat direkomendasikan. Untuk setiap rak di cluster Anda, Anda ...

Log Analisis Data dengan Hadoop - dummies

Log Analisis Data dengan Hadoop - dummies

Analisis log adalah kasus penggunaan umum untuk proyek Hadoop perdana. Memang, penggunaan paling awal dari Hadoop adalah untuk analisis skala besar dari log clickstream - log yang mencatat data tentang halaman web yang dikunjungi orang dan di mana mereka mengunjungi mereka. Semua log data yang dihasilkan oleh infrastruktur TI Anda ...

Lacak Data Blok dengan NameNode di HDFS - dummies

Lacak Data Blok dengan NameNode di HDFS - dummies

NameNode bertindak sebagai buku alamat untuk Hadoop Distributed File System (HDFS) karena ia tahu tidak hanya blok yang membentuk file individual tapi juga di mana masing-masing blok dan replika mereka disimpan. Ketika pengguna menyimpan file di HDFS, file dibagi menjadi beberapa blok data, dan tiga salinan ...

Babi Latin dalam Program Babi Hadoop - dummies

Babi Latin dalam Program Babi Hadoop - dummies

Babi Latin adalah bahasa untuk program Babi. Babi menerjemahkan naskah Latin Babi ke dalam pekerjaan MapReduce yang dapat dieksekusi dalam kelompok Hadoop. Saat mengikuti Pig Latin, tim pengembang mengikuti tiga prinsip desain utama: Keep it simple. Pig Latin menyediakan metode yang efisien untuk berinteraksi dengan Java MapReduce. Ini adalah ...

NoSQL Data Stores versus Hadoop - dummies

NoSQL Data Stores versus Hadoop - dummies

NoSQL menyimpan data awalnya berlangganan gagasan "Katakan saja Tidak pada SQL" untuk mengisahkan dari kampanye iklan anti-narkoba di tahun 1980an), dan ini merupakan reaksi terhadap keterbatasan database relasional (yang berbasis SQL). Bukannya orang-orang ini membenci SQL, tapi mereka bosan memaksa pasak persegi ke dalam lubang bundar oleh ...

Mengelola File dengan Hadoop File System Commands - dummies

Mengelola File dengan Hadoop File System Commands - dummies

HDFS adalah satu dari dua komponen utama dari Kerangka hadoop; Yang lainnya adalah paradigma komputasi yang dikenal sebagai MapReduce. Sistem berkas terdistribusi adalah sistem berkas yang mengelola penyimpanan di sekelompok jaringan mesin. HDFS menyimpan data di blok, unit dengan ukuran default 64MB. File yang ingin Anda simpan di ...

R pada Hadoop dan Bahasa R - dummies

R pada Hadoop dan Bahasa R - dummies

Disiplin belajar mesin memiliki katalog teknik yang kaya dan ekstensif. . Mahout membawa berbagai alat statistik dan algoritma ke meja, namun hanya menangkap sebagian kecil dari teknik dan algoritme tersebut, karena tugas mengubah model ini menjadi kerangka MapReduce adalah tantangan. Seiring waktu, Mahout yakin ...

Mesin Belajar dengan Mahout di Hadoop - dummies

Mesin Belajar dengan Mahout di Hadoop - dummies

Pembelajaran mesin mengacu pada cabang teknik kecerdasan buatan yang menyediakan alat yang memungkinkan komputer untuk memperbaiki analisis mereka berdasarkan kejadian sebelumnya. Sistem komputer ini memanfaatkan data historis dari usaha-usaha sebelumnya dalam menyelesaikan sebuah tugas untuk meningkatkan kinerja usaha-usaha di masa depan pada tugas serupa. Dalam hal hasil yang diharapkan, pembelajaran mesin ...

Pemodelan risiko dengan Hadoop - dummies

Pemodelan risiko dengan Hadoop - dummies

Pemodelan risiko adalah kasus penggunaan utama lainnya yang diberi energi oleh Hadoop. Anda akan menemukan bahwa ini sangat sesuai dengan kasus penggunaan deteksi kecurangan karena ini adalah disiplin berbasis model. Semakin banyak data yang Anda miliki dan semakin Anda dapat "menghubungkan titik-titik itu", semakin sering hasilnya akan menghasilkan model prediksi risiko yang lebih baik. Kata yang mencakup semua ...

Master Nodes di Hadoop Cluster - dummies

Master Nodes di Hadoop Cluster - dummies

Simpul master dalam kelompok Hadoop terdistribusi menyelenggarakan berbagai layanan pengelolaan penyimpanan dan pemrosesan, dijelaskan dalam daftar ini, untuk seluruh cluster Hadoop. Redundansi sangat penting dalam menghindari satu titik kegagalan, jadi Anda melihat dua sakelar dan tiga simpul master. NameNode: Mengatur penyimpanan HDFS. Untuk memastikan ketersediaan yang tinggi, Anda memiliki node yang aktif ...

Running Statistical Model di Hadoop's MapReduce - dummies

Running Statistical Model di Hadoop's MapReduce - dummies

Mengubah model statistik untuk berjalan secara paralel adalah tugas yang menantang. Dalam paradigma tradisional untuk pemrograman paralel, akses memori diatur melalui penggunaan benang - sub-proses yang dibuat oleh sistem operasi untuk mendistribusikan memori bersama tunggal di beberapa prosesor. Faktor-faktor seperti kondisi balapan antara benang bersaing - ketika dua atau ...

Dan Mengkoordinasikan Oozie Workflow di Hadoop - dummies

Dan Mengkoordinasikan Oozie Workflow di Hadoop - dummies

Setelah Anda membuat satu set alur kerja, Anda dapat gunakan serangkaian pekerjaan koordinator Oozie untuk menjadwalkan kapan mereka dieksekusi. Anda memiliki dua pilihan penjadwalan untuk eksekusi: waktu tertentu dan ketersediaan data dalam hubungannya dengan waktu tertentu. Penjadwalan berbasis waktu untuk pekerjaan koordinator Oozie Pekerjaan koordinator oozie dapat dijadwalkan untuk ...

Scripting with Pig Latin in Hadoop - dummies

Scripting with Pig Latin in Hadoop - dummies

Hadoop adalah ekosistem yang kaya dan cepat berkembang dengan set baru tumbuh. aplikasi. Alih-alih mencoba mengikuti semua persyaratan untuk kemampuan baru, Babi dirancang agar dapat diperluas melalui fungsi yang ditentukan pengguna, juga dikenal sebagai UDF. UDF dapat ditulis dalam sejumlah bahasa pemrograman, termasuk Java, Python, dan ...

Slave Node and Disk Failures in HDFS - dummies

Slave Node and Disk Failures in HDFS - dummies

Seperti kematian dan pajak, kegagalan disk (dan diberi cukup waktu , bahkan kegagalan simpul atau rak), tidak dapat dihindari dalam Hadoop Distributed File System (HDFS). Pada contoh yang ditunjukkan, bahkan jika satu rak gagal, cluster dapat terus berfungsi. Kinerja akan terganggu karena Anda telah kehilangan separuh sumber daya pemrosesan Anda, namun sistem masih online ...

Sizing your Hadoop Cluster - dummies

Sizing your Hadoop Cluster - dummies

Sizing sistem pengolahan data sama seperti sains karena ini adalah seni. Dengan Hadoop, Anda mempertimbangkan informasi yang sama seperti database relasional Anda. Yang paling penting, Anda perlu mengetahui berapa banyak data yang Anda miliki, memperkirakan tingkat pertumbuhan yang diharapkan, dan menetapkan kebijakan retensi (berapa lama untuk ...

Mengatur Lingkungan Hadoop dengan Apache Bigtop - dummies

Mengatur Lingkungan Hadoop dengan Apache Bigtop - dummies

Jika Anda merasa nyaman bekerja dengan VM dan Linux , merasa bebas untuk menginstal Bigtop pada VM yang berbeda dari yang direkomendasikan. Jika Anda benar-benar berani dan memiliki perangkat kerasnya, teruskan dan coba pasang Bigtop di sekumpulan mesin dalam mode terdistribusi sepenuhnya! Langkah 1: Mengunduh VM Hadoop berjalan di semua Linux yang populer ...

Slave Nodes in Hadoop Cluster - dummies

Slave Nodes in Hadoop Cluster - dummies

Di alam semesta Hadoop, simpul budak dimana data Hadoop disimpan dan dimana data pengolahan berlangsung Layanan berikut memungkinkan node budak untuk menyimpan dan memproses data: NodeManager: Mengkoordinasikan sumber daya untuk node budak individu dan melapor kembali ke Resource Manager. ApplicationMaster: Melacak kemajuan semua tugas yang berjalan di ...

Slave Nodes dalam Hadoop Distributed File System (HDFS) - dummies

Slave Nodes dalam Hadoop Distributed File System (HDFS) - dummies

Dalam sebuah cluster Hadoop , setiap node data (juga dikenal sebagai slave node) menjalankan proses background bernama DataNode. Proses latar belakang ini (juga dikenal sebagai daemon) melacak irisan data yang disimpan sistem di komputernya. Ini secara teratur berbicara dengan server master untuk HDFS (dikenal sebagai NameNode) untuk ...

Pentingnya sql untuk Hadoop - dummies

Pentingnya sql untuk Hadoop - dummies

Ada alasan kuat mengapa SQL terbukti tangguh. Industri TI telah memiliki pengalaman 40 tahun dengan SQL, sejak pertama kali dikembangkan oleh IBM di awal tahun 1970an. Dengan meningkatnya adopsi database relasional di tahun 1980an, SQL sejak saat itu menjadi standar keterampilan untuk sebagian besar TI ...

Sqoop 2. 0 Preview - dummies

Sqoop 2. 0 Preview - dummies

Dengan semua kesuksesan seputar Sqoop 1. x setelah lulus dari inkubator Apache , Sqoop memiliki momentum! Jadi, seperti yang Anda duga, Sqoop 2. 0 sedang bekerja dengan fitur baru yang menarik di perjalanan. Anda dapat melihat bahwa Sqoop 1. 99. 3 dapat didownload, lengkap dengan dokumentasi. Anda mungkin bertanya-tanya berapa banyak 1. 99. x rilis akan ...

Sqoop Konektor dan Pengandar - dummies

Sqoop Konektor dan Pengandar - dummies

Konektor sqoop umumnya berjalan beriringan dengan driver JDBC. Sqoop tidak mengemas driver JDBC karena mereka biasanya eksklusif dan diberi lisensi oleh vendor RDBMS atau DW. Jadi ada tiga kemungkinan skenario untuk Sqoop, tergantung pada jenis sistem manajemen data (RDBMS, DW, atau NoSQL) yang Anda coba ...

Sqoop Exports Menggunakan Update and Update Insert Approach - dummies

Sqoop Exports Menggunakan Update and Update Insert Approach - dummies

Dengan mode insert, catatan diekspor oleh Sqoop ditambahkan ke akhir tabel target. Sqoop juga menyediakan mode update yang bisa Anda gunakan dengan memberikan argumen baris perintah -update-key . Tindakan ini menyebabkan Sqoop menghasilkan statemen UPDATE SQL untuk dijalankan di RDBMS atau data warehouse. Asumsikan bahwa Anda ...

SQuirreL sebagai Klien Hive dengan JDBC Driver - dummies

SQuirreL sebagai Klien Hive dengan JDBC Driver - dummies

SQuirreL SQL adalah alat open source yang bertindak sebagai klien sarang Anda dapat mendownload klien SQL universal ini dari situs web SourceForge. Ini menyediakan antarmuka pengguna untuk Hive dan menyederhanakan tugas query tabel besar dan menganalisis data dengan Apache Hive. Angka tersebut menggambarkan bagaimana arsitektur Sarang akan bekerja ketika ...

Analisis Sentimen Sosial dengan Hadoop - dummies

Analisis Sentimen Sosial dengan Hadoop - dummies

Analisis sentimen sosial dengan mudah adalah penggunaan yang paling overhyped dari penggunaan Hadoop, yang seharusnya tidak mengherankan, mengingat bahwa dunia terus terhubung dan populasi ekspresif saat ini. Kasus penggunaan ini memanfaatkan konten dari forum, blog, dan sumber media sosial lainnya untuk mengembangkan perasaan tentang apa yang orang lakukan (misalnya, peristiwa kehidupan) ...

Pilihan Editor

Perancang Minigame Minigame - dummies

Perancang Minigame Minigame - dummies

Sebelum menulis semua kode untuk membuat Minecraft Minigame, Anda perlu merancang permainan Anda. The Gameplay Loop adalah proses sederhana yang bisa Anda ikuti untuk memastikan permainan Anda menyenangkan, menantang, dan lengkap. The Gameplay Loop memiliki empat bagian: Start: Buat adegan dasar. Tujuan: Menambahkan cara untuk menang dan ...

Menciptakan Efek Air dan Es di Minecraft - dummies

Menciptakan Efek Air dan Es di Minecraft - dummies

Satu hal yang rapi tentang Minecraft adalah bahwa beberapa fisika realistis sedang dimainkan dalam permainan. Misalnya, jika Anda memiliki air dan Anda memasukkan es ke dalamnya, itu akan membeku! Oke, mungkin di dunia nyata, menambahkan es tidak membuat air membeku, tapi memang membuatnya lebih dingin. Anda dapat melihat ini ...

Mendapatkan Minecraft Experience Points - dummies

Mendapatkan Minecraft Experience Points - dummies

Di Minecraft, experience points, XP untuk jangka pendek, dikumpulkan dari bola pengalaman bercahaya. Sebagai pemain mengumpulkan cukup bola dan meningkatkan tingkat pengalaman mereka, mereka akan dapat menggunakan tabel dan landasan yang mempesona untuk meningkatkan kemampuan banyak item seperti senjata, baju besi, dan peralatan. Jadi, bagaimana Anda bisa cepat mendapatkan ini ...

Pilihan Editor

Bagaimana Mendidik dengan Infografis Informasi Dokumentual - dummies

Bagaimana Mendidik dengan Infografis Informasi Dokumentual - dummies

Infomasi editorial sama dengan artikel berita karena tujuan utamanya adalah untuk mengirimkan informasi. Di bawah payung grafis editorial, ada beberapa tipe yang berbeda, dengan keseimbangan bias dan objektivitas yang berbeda. Berikut adalah beberapa melihat: Badai salju menghantam kota Anda. Koran lokal menciptakan grafik yang menunjukkan hujan salju ...

Bagaimana Mengimpor Sketsa ke Ilustrator untuk Menciptakan Infografis - dummies

Bagaimana Mengimpor Sketsa ke Ilustrator untuk Menciptakan Infografis - dummies

Bahkan di dunia kabel ini, seniman masih suka sketsa Kabar baik! Sketsa kasar Anda dapat dengan mudah digunakan dalam draf infografis Anda. Anda dapat memindai sketsa atau mengambil gambar sketsa Anda dengan telepon Anda dan mengirim e-mail ke komputer Anda sendiri. Mereka tidak perlu diwarnai, cukup jelas bagi Anda untuk ...

Bagaimana cara memasukkan ilustrasi di Infografis Anda - jeleknya

Bagaimana cara memasukkan ilustrasi di Infografis Anda - jeleknya

Infografis yang baik (jelas) harus mencakup seni yang bagus. Ilustrasi mempromosikan alur cerita, menentukan elemen secara visual, dan mencerahkan halaman yang mungkin diisi dengan tipe abu-abu. Ilustrasi bisa berupa gambar fisik, semacam bagan atau grafik, atau bahkan garis waktu. Kehidupan sehari-hari Anda dipenuhi dengan contoh bagaimana ilustrasi ...

Pilihan Editor

GED Contoh Pertanyaan: Penalaran Melalui Bahasa Seni Membaca Informasi Teknis - dummies

GED Contoh Pertanyaan: Penalaran Melalui Bahasa Seni Membaca Informasi Teknis - dummies

Tentang Penalaran Melalui bagian Seni Bahasa GED, Anda mungkin diminta untuk menjawab pertanyaan tentang bagian teknis. Ini bisa termasuk petunjuk cara melengkapi, seperti berikut. Pertanyaan dalam artikel ini mengacu pada kutipan berikut dari Russell Hart's Photography For Dummies, 2nd Edition (Wiley). Apa Rahasia Untuk ...

GED Contoh Pertanyaan: Pertanyaan singkat tentang Ilmu Pengetahuan - dummies

GED Contoh Pertanyaan: Pertanyaan singkat tentang Ilmu Pengetahuan - dummies

Di beberapa titik selama bagian Ilmu Pengetahuan dari Tes GEE, Anda akan diminta untuk membuat jawaban singkat. Anda akan diberi sebuah bagian dan mengajukan pertanyaan yang perlu Anda tanggapi. Buat respons Anda jelas dan ringkas. Bagian Jawaban Jawaban Semua orang mengenal keju cheddar. Orang-orang meletakkan ...

GED Contoh Pertanyaan: Ilmu Sosial dan Media - dummies

GED Contoh Pertanyaan: Ilmu Sosial dan Media - dummies

Di bagian Ilmu Sosial GED, Anda mungkin diminta untuk menjawab pertanyaan tentang berbagai bentuk media, termasuk siaran berita. Lihatlah contoh berikut di bawah ini. Pertanyaan dalam artikel ini mengacu pada siaran berita berikut. Berita Lingkungan Dunia Selamat malam dan selamat datang di World Environmental News. Cerita kami ini ...